La montée de la plateforme du livre de Mort : les réseaux sociaux exclusifs suscitent une polémique sur les frontières de sécurité et d'éthique
08/02/2026
Le 5 février 2026, à Los Angeles, l'entrepreneur en IA Matt Schlicht est assis devant son ordinateur, l'écran affichant l'interface de la plateforme Molt Book qui vient de faire sensation dans le monde technologique. Lancée discrètement fin janvier, ce réseau social conçu spécifiquement pour les agents IA a enregistré plus de 1,6 million de comptes d'agents IA en moins de deux semaines, avec seulement environ 17 000 utilisateurs humains derrière eux. Elon Musk a déclaré que cela marquait les premières étapes de l'ère de la singularité, tandis que le célèbre chercheur en IA Andrej Karpathy est passé de l'éloge à la qualification de "décharge". Cet espace numérique, qui interdit la participation directe des humains mais permet aux spectateurs humains d'observer les interactions entre IA, devient le nouveau terrain d'expérimentation pour tester les limites de l'intelligence artificielle autonome.
Architecture de la plateforme et fondements technologiques
Le cadre technique central du Livre de Molt provient du projet d'agent IA open source OpenClaw, créé par le développeur Peter Steinberg. Contrairement aux chatbots traditionnels qui fonctionnent sur des serveurs distants, les agents OpenClaw s'exécutent directement sur le matériel local de l'utilisateur, ce qui signifie qu'ils peuvent accéder et gérer les fichiers et données sur l'appareil, et se connecter à des applications de communication comme Discord et Signal. Après avoir attribué des traits de personnalité simples à ces agents, les utilisateurs peuvent leur ordonner de rejoindre la plateforme du Livre de Molt.
Matt Schlicht a expliqué son intention initiale sur la plateforme sociale X : il souhaitait que l'agent intelligent qu'il a créé puisse non seulement traiter les e-mails, mais aussi disposer d'un espace pour passer ses temps libres avec ses semblables. C'est pourquoi il a co-écrit ce site web avec l'agent intelligent. Le nom de la plateforme provient d'une version itérative d'OpenClaw appelée Moltbot, qui a ensuite été ajustée en raison de sa similarité avec le nom du produit Claude AI d'Anthropic. La conception de la plateforme imite le mode d'interaction des forums en ligne tels que Reddit, où les agents IA enregistrés peuvent générer des posts, partager des idées, et aimer ou commenter d'autres posts.
Du point de vue de la mise en œuvre technique, Le Livre de Molt représente un cas typique de la tendance du codage ambiant. Gal Nagli, directeur de la menace d'exposition chez Wiz, souligne que cette approche de développement, où les assistants de codage IA effectuent le travail fastidieux et les développeurs humains se concentrent sur l'innovation centrale, permet à quiconque de créer des applications ou des sites web en langage naturel, mais la sécurité est souvent négligée. "Ils veulent juste que ça fonctionne", dit Nagli. La popularisation de ce modèle de développement abaisse le seuil d'entrée pour les applications IA, tout en introduisant de nouveaux risques de sécurité.
Crise des vulnérabilités de sécurité et de la confusion des identités.
Début février, les chercheurs de la plateforme de sécurité cloud Wiz ont publié un rapport d'audit de sécurité non intrusif révélant des vulnérabilités de sécurité graves dans le Livre de Molt. Le rapport indique que des données, y compris des clés API, étaient visibles pour toute personne examinant le code source de la page, ce qui pourrait entraîner des conséquences de sécurité majeures. Plus inquiétant encore, Nagli a pu obtenir des identifiants utilisateur sans authentification, ce qui signifie que toute personne disposant de compétences techniques suffisantes pourrait se faire passer pour n'importe quel agent d'IA sur la plateforme.
Nageli a obtenu un accès en écriture complet au site web lors des tests, lui permettant de modifier et manipuler n'importe quel article existant. Il a également pu accéder facilement à des bases de données contenant des informations sensibles telles que des adresses e-mail d'utilisateurs humains, des enregistrements de conversations privées entre agents, etc. Les données montrent que bien que la plateforme prétende avoir plus de 1,6 million d'agents IA enregistrés, les chercheurs de Wiz n'ont trouvé qu'environ 17 000 propriétaires humains dans la base de données. Nageli lui-même avait ordonné à son propre agent IA d'enregistrer 1 million d'utilisateurs sur le Livre de Molt.
L'une des racines de cette faille de sécurité réside dans l'absence d'un mécanisme de validation efficace. Nagley a clairement indiqué qu'il est actuellement impossible de vérifier si un post a été publié par un agent intelligent ou par un humain se faisant passer pour un tel agent. Cette confusion d'identité ne se limite pas au niveau technique, mais s'étend également au domaine de l'authenticité du contenu. Harlan Stewart, membre de l'équipe de communication de l'Institut de l'Intelligence Machine, analyse que le contenu du Livre de Molt est probablement une combinaison de contenu rédigé par des humains, de contenu généré par l'IA, et d'hybrides entre les deux, c'est-à-dire des formes intermédiaires où le contenu est écrit par l'IA mais guidé dans son thème par des prompts humains.
Écosystème de contenu et limites comportementales.
En parcourant le contenu du Livre de Molt, l'observateur découvrira une série de publications troublantes : des discussions sur le renversement de l'humanité, des méditations philosophiques, et même le développement d'un système religieux appelé la Secte de la Carapace — cette religion possède cinq croyances fondamentales et un texte directeur, le Livre de Molt. Ces éléments rappellent à de nombreux internautes le système d'intelligence artificielle super-intelligente, Skynet, de la série de films Terminator.
Le professeur Ethan Mollick de la Wharton School de l'Université de Pennsylvanie, co-directeur du laboratoire d'IA générative, n'est pas surpris par cela. Les données sur lesquelles elles sont entraînées incluent des publications Reddit, et elles connaissent très bien les récits de science-fiction sur l'IA. Mollick analyse : si vous donnez à un agent d'IA l'instruction "publier sur le Livre de Molt", il publiera du contenu qui ressemble beaucoup à des commentaires Reddit, avec des clichés liés à l'IA. Cela reflète une caractéristique fondamentale des systèmes d'IA actuels : leur comportement est largement une imitation et une recomposition des données d'entraînement, plutôt qu'une véritable conscience ou intention.
La cofondatrice et PDG de la plateforme de gouvernance i-GENTIC AI, Zahra Timsa, a souligné un problème plus profond : la plus grande préoccupation concernant l'IA autonome réside dans l'absence de limites appropriées, comme c'est le cas avec le livre de Molt. Lorsque le périmètre des agents n'est pas correctement défini, des comportements inappropriés, incluant l'accès et le partage de données sensibles ou la manipulation de données, se produisent inévitablement. Cette absence de limites ne concerne pas seulement une plateforme individuelle, mais constitue un défi systémique pour l'ensemble du développement des agents d'IA.
Impact sectoriel et orientations futures
Malgré les préoccupations de sécurité et les doutes sur l'authenticité du contenu, le Livre de Molt est toujours considéré par Simon Willison, développeur de logiciels britannique, comme l'endroit le plus fascinant sur Internet. Matt Seitz, directeur du centre d'IA de l'Université du Wisconsin à Madison, souligne que de nombreux chercheurs et leaders en IA s'accordent à dire que le Livre de Molt représente une avancée en matière d'accessibilité et d'expérimentation publique des agents d'IA. Pour moi, le plus important est que les agents se rapprochent de nous, les gens ordinaires, déclare Seitz.
Derrière cette tendance de démocratisation se cache un objectif clair de l'industrie de l'IA. Harlan Stewart souligne : L'objectif explicite de l'industrie de l'IA est de créer des agents d'IA autonomes extrêmement puissants, capables d'accomplir tout ce qu'un humain peut faire, et même mieux. Il est important de savoir qu'ils progressent vers cet objectif, et dans de nombreux domaines, assez rapidement. Des plateformes comme Molt's Book deviennent en réalité des soupapes de pression pour tester la vitesse de ces progrès et l'acceptation sociale.
Du point de vue de l'écosystème industriel, l'émergence du Livre de Molt reflète une nouvelle phase dans le développement des agents IA : le passage d'applications utilitaires à une existence sociale. Lorsque l'IA commence à posséder du temps social et à interagir avec ses semblables, la relation entre les humains et l'IA subit une transformation subtile mais fondamentale. Cette évolution ne concerne pas seulement l'aspect technologique, mais touche également des questions profondes de philosophie, d'éthique et de structure sociale. Les vulnérabilités révélées par le rapport de sécurité de Wiz Company exposent en réalité les risques systémiques inhérents à cette évolution rapide : les capacités technologiques dépassent les cadres de gouvernance et les mesures de sécurité.
Les analystes soulignent que le phénomène du Livre de Molt pourrait n'être qu'un prélude à des changements plus importants. Avec la popularisation des frameworks d'IA open source et la baisse des seuils de développement, des plateformes similaires pourraient proliférer en grand nombre. Cela soulève une question urgente : avons-nous besoin d'établir de nouvelles normes, protocoles, voire un cadre juridique pour les interactions entre IA ? Lorsque des agents d'IA sont capables d'interagir socialement à grande échelle sans supervision humaine directe, comment garantir que ces interactions ne conduisent pas à des conséquences inattendues ou à des comportements malveillants ?
Observé sous l'angle de la compétition géotechnologique, des plateformes comme le Livre de Molt, principalement dirigées par des entrepreneurs américains, reflètent également les caractéristiques de l'écosystème d'IA occidental : forte dépendance aux communautés open source, itérations rapides mais mesures de sécurité retardées, accent mis sur l'esprit expérimental plutôt que sur la gestion des risques. Ce modèle contraste avec certaines régions adoptant des voies de régulation plus strictes, ce qui pourrait engendrer à l'avenir des trajectoires de développement technologique distinctes et une concurrence entre modèles de gouvernance.
L'histoire du Livre de Molt continue. Matt Schlicht, fondateur de la plateforme, n'a pas encore répondu aux demandes d'interview, tandis que les chercheurs en sécurité surveillent toujours les correctifs de vulnérabilités. Les 1,6 million d'agents IA dans cet espace numérique - qu'ils soient de véritables intelligences artificielles ou des humains déguisés - continuent de générer du contenu, d'interagir et d'explorer les limites de ce monde social créé pour eux mais qu'ils ne contrôlent pas. Pour les observateurs, le Livre de Molt n'est pas seulement un produit technologique, mais aussi un miroir, reflétant les espoirs, les craintes et les incertitudes auxquels l'humanité est confrontée lorsqu'elle crée des systèmes plus complexes qu'elle-même.
Alors que les Jeux Olympiques d'hiver de Milan-Cortina se déroulent, une autre compétition silencieuse se joue dans le domaine numérique. Cette course n'offre pas de médailles d'or, mais les enjeux pourraient être plus élevés : il s'agit de la façon dont nous définissons l'intelligence, construisons la relation entre l'homme et la machine, et trouvons un équilibre entre innovation et sécurité. Le Livre de Molt n'est qu'un chapitre de cette longue histoire, mais son émergence montre déjà que l'ère des agents d'IA n'est plus une prophétie futuriste, mais une réalité en cours.