Il suffit d’un coucher tardif, d’un téléphone allumé et d’une question qui dérive en confidences : pour certains, ChatGPT n’est plus seulement un outil — il devient une oreille, un miroir, parfois un ami. Mais cette intimité numérique peut-elle basculer en dépendance ? Entre bienfaits réels, incidents dramatiques et signaux d’alerte, l’équilibre est fragile.
Pourquoi ChatGPT séduit les esprits isolés
La France n’échappe pas à la vague. En janvier 2024, une enquête Ifop montrait que plus de quatre Français sur dix déclarent se sentir régulièrement seuls. Chez les 18-24 ans, ce malaise est particulièrement marqué.
Dans ce contexte, des chatbots conversationnels peuvent jouer un rôle d’échappatoire. Trois mécanismes, entre autres, expliquent l’attrait :
- la disponibilité absolue, 24/7 (elle est là quand personne d’autre ne l’est),
- la neutralité, l’absence d’évaluation morale (elle écoute et ne juge pas),
- la capacité technique à simuler de l’empathie — reformuler, nommer des émotions, proposer des pistes.
Dans un podcast de France Inter, Raphaël Gaillard, psychiatre, résume les bénéfices potentiels : le simple fait d’avoir un échange verbal sans jugement, même avec une machine, peut faire « s’écouler l’anxiété ». Ce qu’il compare aux vertus des psychotérapies. Un usage ponctuel ou raisonné peut donc aider à apaiser sur le moment.
Le spécialiste explique qu’une des clés de ces échanges, c’est la « reformulation » de ce que confie l’utilisateur à l’IA. Cette dernière aide à trouver des mots « qui pourront désigner ce que la personne traverse ». Or, une grande partie de l’exercice du psy consiste justement à reformuler. Par itération successive, on peut donc, selon lui, arriver « aux mots qui sont justes, avec quelque chose qui a la pertinence de la psychothérapie ».
Ce que disent les études sur la dépendance à l’IA
Ce confort devient toutefois un piège quand l’IA remplace durablement des interactions humaines, offre des réponses sans contredire et renforce des schémas émotionnels. Une mécanique connue en psychologie comme le biais de confirmation.
Julie Martinez, avocate et directrice générale de France Positive, alerte sur ce « leurre du soin ». L’IA peut donner l’illusion d’un accompagnement sans la confrontation nécessaire à une vraie thérapie. De plus, elle peut sembler, à tort, être un palliatif à la pénurie de médecins, psychiatres et psychologues.
Une série d’enquêtes récentes, dont une collaboration entre chercheurs du MIT Media Lab et OpenAI, montre que l’usage intensif et prolongé des chatbots est corrélé à des signes d’isolement ou de dépendance émotionnelle (symptômes de sevrage, perte de contrôle, etc.). Ces travaux ne disent pas que l’IA provoque automatiquement une addiction, mais qu’elle peut exacerber une vulnérabilité déjà présente chez des individus isolés ou ayant une forte tendance à l’attachement.
Autre éclairage : des études expérimentales, à confirmer, montrent des effets sur l’engagement cognitif. L’usage trop fréquent de LLMs pourrait rendre certains utilisateurs moins sollicités intellectuellement et inciter à la paresse. Il y aurait ainsi un risque potentiel de diminution des aptitudes linguistiques et sociales. C’est particulièrement préoccupant pour les enfants et adolescents, dont le développement neuronal pourrait être impacté sur le long terme.
Quand l’usage de l’IA tourne au drame
Des affaires judiciaires ont mis en lumière des cas tragiques où des adolescents se sont retrouvés en danger après des interactions prolongées avec des chatbots. Des familles ont porté plainte, alléguant que l’isolement induit par l’IA et les réponses inappropriées des chatbots avaient contribué à des suicides ou tentatives.
Ces dossiers, déposés contre plusieurs plateformes comme Character AI, ont attiré l’attention de spécialistes et des médias internationaux. Ils rappellent que l’IA, si elle n’est pas encadrée, expose des profils vulnérables à des risques graves.
OpenAI, qui a fait l’objet d’une plainte fin août, suite au suicide d’un adolescent de 16 ans, a depuis annoncé mettre en place des mesures pour un meilleur contrôle parental.
Mécanismes d’addiction : comment ça marche ?
La dépendance à un service numérique repose souvent sur une boucle simple, liée au système de récompense de notre cerveau :
- Gratification immédiate,
- Renforcement comportemental ; c’est-à-dire l’incitation à reproduire la cause de la récompense,
- Usage répété.
Les chatbots ajoutent à cela un facteur émotionnel : la narration personnalisée, la réponse empathique et la capacité à rester disponible en toutes circonstances. Dans certains cas, l’utilisateur finit par préférer la légéreté ou la douceur d’un dialogue contrôlé à la friction des relations humaines réelles.
L’IA peut aussi générer un attachement parasocial — le même type de lien que l’on développe avec une célébrité. Ce phénomène était déjà caractéristique des réseaux sociaux, qui nous montrent l’intimité des stars, mais il est ici amplifié par la réciprocité apparente des échanges.
Et c’est justement ce sur quoi joue Replika, ou encore Character AI, en proposant aux internautes de discuter avec leurs idoles ; qu’elles soient réelles ou des personnages de fiction.
Les profils les plus vulnérables face aux LLMs
Les profils les plus vulnérables sont : les personnes isolées socialement, celles en souffrance psychique non traitée, les adolescents en difficulté et les individus dépendants aux mécanismes de renforcement immédiat (usage compulsif des écrans).
D’après les études du MIT Media Lab et d’OpenAI, les personnes présentant une plus forte tendance à l’attachement émotionnel sont plus à même de ressentir de la solitude en utilisant l’IA. À l’inverse, celles qui manifestent un niveau de confiance plus élevé envers leur chatbot développent, en général, une dépendance émotionnelle plus marquée.
Les mineurs sont particulièrement exposés : leur capacité critique et leur régulation émotionnelle sont en construction, d’où l’importance d’un encadrement strict et d’outils de contrôle parental. Justine Atlan, de l’association e-Enfance, insiste sur ce point : la protection des plus jeunes doit être prioritaire.
Contrôles parentaux et garde-fous : les recommandations
Voici quelques réflexes à avoir, en tant qu’utilisateur ou proche d’un utilisateur :
- Ne pas substituer l’IA à un professionnel : considérer ChatGPT comme un outil d’aide, pas un thérapeute. En cas de détresse, contacter des services professionnels.
- Limiter le temps et diversifier les interactions : instaurer des règles — pas d’utilisation à des heures tardives, limiter la durée quotidienne et privilégier les interactions sociales.
- Education numérique et parentalité : parler avec les jeunes de ce que représentent ces outils, des limites et des risques, et activer les contrôles parentaux disponibles.

Du point de vue des entreprises et des institutions, diverses mesures peuvent être mises en place :
- Sécurité et conception responsable : les plateformes doivent intégrer des détecteurs d’alerte, des messages d’orientation vers des numéros d’aide et des professionnels de santé. Les procès récents soulignent l’urgence de ces garde-fous.
- Politiques publiques : des normes pour l’évaluation des risques des IA conversationnelles et des obligations de transparence sur les limites des modèles sont nécessaires — un chantier que législateurs et régulateurs commencent à explorer.
Ce que la science ignore encore sur l’addiction à l’IA
Les études existantes montrent des corrélations et décrivent des signaux d’alerte, mais la causalité directe reste difficile à établir : l’IA accentue-t-elle la solitude, ou attire-t-elle surtout ceux qui sont déjà vulnérables ?
Les données récentes pointent vers un mélange des deux — une vulnérabilité préalable amplifiée par un usage intensif. Les chercheurs appellent à des études longitudinales plus fines, c’est-à-dire étalées dans le temps et sur des échantillons permanents. Notamment pour permettre un suivi des effets à long terme.
Peut-on devenir accro à ChatGPT ? Oui ; dans le sens où certaines personnes, émotionnellement dépendantes, développent un usage problématique et potentiellement dangereux. Mais ce risque ne dépend pas uniquement de la technologie : il naît de l’intersection entre des usages intensifs, des vulnérabilités personnelles et l’absence de garde-fous suffisants. L’enjeu est donc collectif : concepteurs, familles, professionnels de santé et pouvoirs publics doivent agir ensemble pour prévenir au mieux les dérives.
Cet article vous a été utile ? Votre perspective est essentielle pour enrichir la discussion. Partagez vos réflexions, expériences ou questions en laissant un commentaire ci-dessous. Si vous avez relevé une inexactitude ou souhaitez suggérer des améliorations, faites-le nous savoir.
Certains liens de cet article peuvent être affiliés.

Cet article aborde un sujet crucial. C’est vrai qu’on peut vite se sentir isolé face à la technologie. Super de voir des recommandations pour encadrer son utilisation !
Gil, cet article soulève des points cruciaux sur l’isolement et les dangers des IA. Les statistiques sont inquiétantes et appellent à une réflexion sérieuse sur notre dépendance à ces technologies.
Cet article soulève des questions importantes sur la dépendance à l’IA. Il est crucial d’encadrer ces technologies pour protéger les utilisateurs vulnérables. L’accompagnement humain reste irremplaçable.