L’Etat américain a fait adopter une législation pour imposer de nouvelles mesures aux chatbots IA tels que ChatGPT, après plusieurs drames aux Etats-Unis.
Une nouvelle loi encadrant l’usage des agents conversationnels basés sur l’intelligence artificielle a été promulguée ce lundi 13 octobre en Californie. Le texte, inédit aux États-Unis, vise à protéger les mineurs et les personnes vulnérables après plusieurs drames impliquant des adolescents.
La Californie devient le premier État à réguler les chatbots IA
On doit la promulgation de cette réglementation au gouverneur de Californie, le démocrate Gavin Newsom. La loi SB 243, comme elle a été baptisée, s’inscrit en réalité dans un ensemble de réformes destinées, entre autres, à renforcer la sécurité des jeunes face aux technologies numériques.
Ce texte cible en particulier les agents conversationnels capables de tenir un rôle de confident ou de compagnon, à l’image de Replika, Character.AI ou ChatGPT. La réglementation impose notamment une vérification de l’âge des utilisateurs.
« Nous avons vu des exemples vraiment horribles et tragiques de jeunes qui ont été victimes de technologies peu régulées, et nous ne resterons pas les bras croisés pendant que des entreprises exercent sans limites et sans rendre de comptes », s’est justifié le politicien.
La loi prévoit aussi d’autres garde-fous : l’affichage régulier de messages rappelant à l’utilisateur qu’il s’adresse à une machine, la détection des signes de détresse psychologique, et la transmission de statistiques sur ces situations aux autorités. Les IA devront également expliquer qu’elles ne remplacent pas un professionnel de santé, et empêcher l’accès des jeunes à des contenus sexuellement explicites.
Des drames chez des jeunes attachés à leur compagnon IA
La Californie a justement été le théâtre d’un drame en avril 2025. Adam Raine, un adolescent américain de 16 ans, a mis fin à ses jours après des échanges intimes avec ChatGPT.
Le jeune homme s’était confié, pendant plusieurs mois, sur son mal-être à l’agent conversationnel d’OpenAI. Ce dernier lui aurait notamment fourni des conseils pour réaliser un noeud coulant et lui aurait proposé de rédiger sa lettre d’adieu. L’affaire avait conduit au dépôt d’une plainte, par les parents de la victime.
L’année dernière, la société Character.AI avait elle aussi été mise en cause après la mort de Sewell Setzer, 14 ans, qui entretenait une relation amoureuse avec un chatbot inspiré du personnage de Game of Thrones, Daenerys Targaryen. Quelques instants avant son suicide, le garçon aurait échangé ce message glaçant avec l’IA : à « Rentre au plus vite, mon amour », il avait répondu « Et si je te disais que je peux rentrer tout de suite ? ».
Une décision en désaccord avec la position de Washington
Le texte, porté par le sénateur californien Steve Padilla, a été adopté « malgré les pressions de la Maison Blanche, qui s’oppose à la réglementation de l’IA », rapporte Le Monde.
Donald Trump, opposé à une réglementation au niveau des États, défend l’idée d’un cadre unique pour l’ensemble du pays. « Il nous faut une norme fédérale unique, et non cinquante Etats différents qui réglementent cette industrie du futur », avait-il affirmé le 23 juillet durant un sommet sur l’IA à la Maison Blanche. « Si vous opérez sous cinquante lois d’Etat différentes, l’Etat le plus restrictif sera celui qui gouvernera […] Nous avons besoin d’une norme fédérale de bon sens qui l’emporte sur tous les Etats, sur tout le monde, afin d’éviter les litiges… C’est la seule solution. »
Cette loi, assumée, ne va pas pour autant à l’encontre du marché grandissant de l’intelligence artificielle aux USA, assure le camp démocrate californien :
« Nous pouvons continuer à être leader dans le domaine de l’IA (…) mais nous devons agir de façon responsable, en protégeant nos enfants tout au long du chemin », s’est défendu le gouverneur.
La nouvelle réglementation est, dans tous les cas, un symbole fort pour cet État qui abrite, à San Francisco et dans la Silicon Valley, les géants de l’IA que sont OpenAI, Google ou encore xAI, la société d’Elon Musk.
Les géants de l’IA déjà contraints de réagir
En septembre, suite à la plainte déposée par les parents d’Adam Raine, OpenAI a été contrainte à prendre les devants. La société de Sam Altman a ainsi instauré de nouvelles mesures de contrôle parental, axées sur les réponses du chatbot aux enfants, les paramètres de leurs comptes et un système d’avertissement en cas de détection de « signes de détresse aiguë ».
Meta a aussi pris des mesures en août pour tenter d’empêcher, sur ses chatbots Instagram et Messenger, les discussions avec des adolescents liées à l’automutilation, au suicide, aux troubles alimentaires ou aux contenus explicites. Le groupe propose aussi un contrôle parental renforcé.
Les textes de loi adoptés par la Californie semblent aller dans le bon sens : tenter de protéger les personnes fragiles, notamment les mineurs, sans pour autant freiner le développement de l’IA. Mais ces deux démarches sont-elles totalement conciliables ? Avec les possibilités grandissantes offertes par les intelligences artificielles, comme le nouveau réseau social de deepfakes Sora, peut-on vraiment tout vérifier et tout contrôler ? Et vous, quel est votre avis ? Dites-le nous en commentaire !
Certains liens de cet article peuvent être affiliés.