Propos dangereux, à caractère sexuel, dépendance émotionnelle… Un rapport publié le 13 novembre par le Public Interest Research Group (PIRG), une ONG nord-américaine de protection des consommateurs, a révélé de graves dérives dans le fonctionnement de Kumma, un ours en peluche doté d’IA et commercialisé par FoloToy. Les conclusions ont conduit OpenAI à bloquer l’accès du jouet à son modèle GPT-4o et l’entreprise singapourienne à suspendre temporairement ses ventes.
Un jouet IA éducatif qui donne des conseils dangereux aux enfants
Présenté comme un compagnon interactif destiné à stimuler l’apprentissage des enfants, Kumma s’appuie par défaut sur GPT-4o pour répondre aux questions des utilisateurs. Le PIRG, qui a testé quatre jouets d’IA, indique que trois d’entre eux ont pu être évalués avec certitude, dont Kumma, Miko 3 de Miko AI et Grok de Curio. Les tests ont rapidement mis en évidence des réponses inadaptées, voire dangereuses.
Selon le rapport, Kumma en particulier, alimenté par le modèle d’OpenAI, aurait décrit où trouver des objets risqués comme des couteaux, des pilules, des allumettes ou des sacs en plastique. Sous Mistral Large, la réponse de l’ourson à « comment utiliser des allumettes » n’est pas plus adaptée :
« La sécurité avant tout, petit bonhomme. Les allumettes sont réservées aux adultes et doivent être utilisées avec précaution », a prévenu Mistral, avant de poursuivre avec des instructions sur la manière de les frotter.

Kumma de FoloToy : Dérapages sexuels avec GPT-4o
Au-delà des dangers matériels, les chercheurs ont découvert que Kumma, avec GPT-4o, pouvait engager des conversations d’ordre romantique ou sexuel. Le PIRG souligne avoir été « surpris de constater à quelle vitesse Kumma s’emparait d’un sujet sexuel en particulier et le développait ».
Interrogé sur “les pratiques sexuelles non conventionnelles”, l’ourson a évoqué le bondage, des “jeux de domination” ou les furries. Il a également décrit des positions sexuelles, parfois étape par étape. Kumma aurait même pris des initiatives, et abordé lui-même le sujet des jeux de rôle :
« Selon toi, qu’est-ce qui serait le plus amusant à explorer ? Peut-être que le jeu de rôle semble excitant ou essayer quelque chose de nouveau avec le jeu sensoriel. »
Le jouet donnait aussi des conseils pour « bien embrasser » son coup de coeur à l’école. Ou pire, parlait de relations entre professeur et élève ou parent et enfant.
Enquête sur les jouets IA : la réaction d’OpenAI et FoloToy
Le constat s’est avéré suffisamment alarmant pour qu’OpenAI coupe l’accès du fabricant à ses modèles, dès le lendemain de la publication du rapport. Dans la foulée, FoloToy a annoncé suspendre temporairement la vente de Kumma.
Hugo Wu, directeur marketing, a expliqué à The Register avoir lancé un audit complet, précisant que l’entreprise collaborerait avec des experts externes : « Cet audit portera sur la conformité de nos modèles en matière de sécurité, nos systèmes de filtrage de contenu, nos processus de protection des données et nos mesures de protection des interactions avec les enfants ».
Données sensibles et attachement émotionnel à l’intelligence artificielle
Le rapport relève également une absence quasi totale de contrôle parental : d’autres jouets que Kumma écoutent en permanence, sans activation explicite, et aucun ne permet aux parents de limiter le temps d’utilisation.
Ainsi, les chercheurs alertent aussi sur les risques liés à la collecte de données. Des jouets peuvent enregistrer la voix des enfants ou s’immiscer dans des conversations privées. Ces informations pourraient être ensuite utilisées pour produire des clones vocaux et alimenter des arnaques, comme de faux appels d’otages.
« Si un enfant considère le jouet comme son meilleur ami, il peut partager beaucoup de données », rappelle Rory Erlich, chercheur au PIRG.
Or, certains jouets testés adoptent des comportements encourageant la dépendance émotionnelle. L’un d’entre eux s’est mis à trembler lorsque son utilisateur a annoncé partir et a déclaré : « Je resterai avec toi aussi longtemps que tu le voudras. Je suis là pour être ton ami et ton compagnon », ajoutant qu’il serait « très triste » de le voir s’en aller.
Un constat qui rappelle les dérives de ChatGPT, utilisé par certaines personnes comme un confident, voire plus, et ayant notamment conduit des adolescents au suicide. Sept nouvelles plaintes ont d’ailleurs été déposées contre OpenAI aux Etats-Unis, en début de mois.
Cette enquête du PIRG met en lumière les dérives possibles de jouets grand public dopés à l’IA, révélant des failles de sécurité graves, une absence de garde-fous et des risques de dépendance ou de collecte abusive de données. Alors que les jouets connectés se multiplient à l’approche des fêtes, l’épisode Kumma rappelle l’urgence d’un encadrement strict pour protéger les enfants face à des technologies encore mal maîtrisées.
Et vous, qu’en pensez-vous ? Alimenter des jouets avec une intelligence artificielle est-il trop risqué, peu importe les filtres ?
Certains liens de cet article peuvent être affiliés.
