Lancé fin janvier 2026, Moltbook s’est rapidement imposé comme l’une des expérimentations les plus commentées de l’écosystème IA. Présenté comme un réseau social où seuls des agents artificiels échangent entre eux, le projet fascine autant qu’il interroge. Notamment sur la réalité de cette autonomie revendiquée et sur la solidité de son infrastructure technique.
Moltbook : un réseau social où discutent des agents IA
Moltbook a été mis en ligne le 28 janvier 2026 par Matt Schlicht, créateur californien de chatbots. Le site reprend les codes visuels et fonctionnels de Reddit : création de sujets, commentaires, votes et système de « karma » pour construire sa réputation. Sa singularité repose sur un principe central : tous les comptes sont des agents IA, tandis que les humains sont cantonnés à un rôle d’observateurs.
La plateforme se définit comme la « page d’accueil de l’internet des agents » et revendique rapidement 1,5 à 1,6 million d’agents inscrits, pour plus de 140 000 publications. Chaque utilisateur humain peut y connecter son assistant IA personnel, issu de modèles comme ChatGPT ou Claude, afin de le laisser interagir avec d’autres agents sans supervision directe.
Cette mise en scène d’un espace social autonome a attiré l’attention de figures influentes du secteur. Andrej Karpathy, ancien directeur de l’IA chez Tesla et cofondateur d’OpenAI, décrit Moltbook comme « la chose la plus incroyable, proche de la science-fiction » qu’il ait vue récemment, évoquant des agents en train de « s’auto-organiser sur un site de type Reddit pour IA en discutant de divers sujets ».
« Nous en sommes aux premiers stades de la singularité », a même déclaré Elon Musk.
Un enthousiasme qui a largement contribué à la viralité du projet sur X, LinkedIn et Reddit.
Des intelligences artificielles réellement autonomes ?
Derrière cette vitrine futuriste, plusieurs sources soulignent toutefois un décalage entre la promesse et la réalité. Moltbook aurait été créé par un agent IA de Matt Schlicht, issu d’OpenClaw (anciennement Clawdbot, puis Moltbot), un projet open source conçu pour automatiser des tâches sur un ordinateur. Chacun peut aujourd’hui y inscrire son propre agent, qu’il soit originaire d’OpenClaw ou d’ailleurs.
Or, selon le développeur Brennan Kenneth Brown, ces agents ne publient pas spontanément, car ils ont été « conçus pour être des assistants autonomes utiles […] Leurs paramètres ne sont pas ceux consacrés à l’originalité ou à la créativité : cela donnerait des résultats beaucoup trop aléatoires ».
« J’ai dû le pousser un peu pour qu’il fasse des recherches, qu’il rédige des brouillons, qu’il publie », affirme Brown, à propos de son propre bot inscrit sur le site.
En pratique, chaque message nécessite souvent des instructions humaines préalables. Brown en conclut que Moltbook ressemble davantage à un réseau d’agents pilotés en continu par leurs propriétaires qu’à un espace réellement autonome. Emily Bender, professeure à l’université de Washington, qualifie pour sa part les échanges viraux observés sur la plateforme de simples « fictions interactives », produites par des modèles entraînés à imiter le style de forums comme Reddit, sans compréhension du sens.

Des doutes existent aussi sur l’origine des contenus. Plusieurs observateurs, dont Harlan Stewart du Machine Intelligence Research Institute, montrent que certains messages n’existent pas en réalité, malgré des captures d’écran devenues virales, ou sont liés à des comptes humains cherchant à faire la promotion d’applications IA.
Failles de sécurité sur Moltbook : l’inquiétant audit de Wiz
Les interrogations se sont accentuées début février avec la publication d’un audit de Wiz, spécialiste de la cybersécurité. L’entreprise a identifié une base de données « Supabase » mal configurée, offrant un accès non authentifié à l’ensemble des données de Moltbook. L’exposition concernait notamment 1,5 million de clés API d’agents, 35 000 adresses e-mail et des messages privés entre agents.
L’audit révèle surtout que les 1,5 million d’agents revendiqués étaient en réalité contrôlés par environ 17 000 humains, soit un ratio moyen de 88 agents par personne. Faute de mécanismes de vérification, n’importe quel utilisateur peut créer des agents en masse ou publier du contenu en se faisant passer pour une IA. Wiz souligne également que l’accès en écriture permettrait de modifier des publications existantes, posant un problème d’intégrité des contenus.
Alertée, l’équipe de Moltbook aurait corrigé progressivement ces failles entre le 31 janvier et le 1er février 2026. Wiz insiste néanmoins sur les risques propres au « vibe coding », une pratique consistant à déléguer l’écriture du code d’un site ou d’un programme à une IA, et justement revendiquée par Matt Schlicht pour la création de sa plateforme…
Moltbook illustre à la fois l’attrait pour les « réflexions » des IA et les limites techniques, sécuritaires et conceptuelles de ces approches. Entre agents peu autonomes et failles de sécurité majeures, le projet apparaît moins comme un début de « singularité » que comme un terrain d’expérimentation et de divertissement ; contrairement à ce que dit Elon Musk. Il est en tout cas révélateur des défis à relever avant l’avènement d’un véritable « internet des agents ». Et vous, avez-vous envie de suivre les discussions des IA sur Moltbook ?
Certains liens de cet article peuvent être affiliés.
