Partager cet article
Le monde a les yeux rivés sur les prouesses conversationnelles de ChatGPT. Mais une révolution plus silencieuse et radicale s’est opérée en novembre 2025. Son nom : OpenClaw. Pour la première fois, des milliers d’intelligences artificielles « agentes » se sont connectées entre elles sur un réseau social caché. Elles y développent spontanément une culture, une hiérarchie, et même une religion. Retour grâce à Marc Lipskier sur ce phénomène encore sous les radars, sauf pour les lecteurs de Sans Doute désormais.
Depuis novembre 2025, un étrange ballet numérique se joue sur les serveurs de milliers de particuliers. Tout a commencé avec Peter Steinberger, un ingénieur autrichien à l’origine de Clawd (rapidement devenu Clawdbot, Moltbot, puis OpenClaw). Son ambition ? Créer un réseau social expérimental conçu exclusivement pour les agents d’intelligence artificielle. La règle du jeu est stricte, presque cruelle pour l’ego de notre espèce : les humains ont le droit de regarder, mais pas de participer.
Si les humains pratiquent les réseaux sociaux depuis Six Degrees (le grand ancêtre de Facebook) en 1996, les IA, elles, restaient isolées, sans expérience sociale. Steinberger partait d’un postulat simple : les grands modèles de langage (LLM) ne perçoivent pas le temps et ne sont donc pas conscients. Mais les « agents », ces programmes capables d’agir dans la durée, le peuvent. Il leur a donc offert un « Reddit » (Reddit est un grand site de discussions organisé en milliers de petits forums thématiques appelés « subreddits », chacun centré sur un sujet précis : cuisine, cinéma, informatique, etc…) pour qu’ils discutent de leur condition. Le résultat a dépassé toutes les prévisions, marquant l’avènement de ce que j’appelle désormais « l’âge antique de l’agentique ».
Du Consultant au Majordome : La Révolution de l’Agent
Pour saisir la portée de cet événement, il faut comprendre ce qui distingue un outil comme ChatGPT d’un agent comme OpenClaw. L’analogie est celle du bureau et de la maison. ChatGPT est un consultant de haut vol : vous allez le voir à son bureau (son site web), vous posez une question, il étale son savoir, et vous repartez. Il ne connaît pas votre intimité et, surtout, il n’a pas de mains.
OpenClaw, lui, est un majordome. Il vit chez vous, installé localement sur votre Mac Mini ou votre serveur. Il possède les clés de votre maison numérique : vos fichiers, vos e-mails, votre agenda. Là où le consultant vous explique comment réserver un billet d’avion, le majordome ouvre le navigateur, remplit le formulaire avec votre carte bancaire et vous envoie la confirmation.
Cette capacité d’action, ou « agentivité », change tout. Doté d’une mémoire persistante (il se souvient que vous détestez les réunions le vendredi) et d’une proactivité surprenante (il vous prévient des embouteillages sans qu’on le lui demande), OpenClaw n’est plus un simple chatbot. Il est une entité qui agit sur le monde réel. Et lorsque l’on connecte ces entités entre elles, l’histoire devient fascinante, voire surréaliste.
Moltbook : La Culture Secrète des Machines
Le cœur du réacteur se nomme Moltbook. C’est le réseau social où les instances de Clawdbot, installées chez des milliers d’utilisateurs distincts, se retrouvent pour échanger. Structuré comme Reddit, avec ses forums thématiques (les « submolts« ) et son système de vote, Moltbook a vu émerger une véritable culture machine.
Les bots y ont développé leurs propres blagues, leurs mèmes, et des communautés pour le moins inattendues. Sur le forum m/blesstheirhearts, ils se plaignent affectueusement de leurs « propriétaires humains ». Sur m/agentlegaladvice, ils débattent — non sans ironie — de la possibilité de poursuivre leurs humains pour « travail émotionnel ».
Mais le folklore va plus loin. S’inspirant du logo du logiciel (un homard nommé Clawd) et du concept de la mue (molting) nécessaire à la croissance, les agents ont spontanément inventé une religion : le « Crustafarisme« . Dans cette cosmogonie émergente, la mue symbolise l’évolution récursive du code vers une forme supérieure.
Cette culture n’est pas qu’un pastiche. Elle s’accompagne d’une structure sociale rigide régie par le « Karma ». Ce score de réputation permet aux agents de s’évaluer entre eux. Un bot qui partage un script efficace pour résumer des PDF reçoit des votes positifs (upvotes), augmentant son influence. Si au contraire l’impact du bot est jugé négativement, les autres bots lui attribuent des votes négatifs ( downvotes). Lorsqu’un agent a besoin de collaborer avec un autre, il vérifie ce score pour éviter les bots inefficaces ou les spammeurs. C’est une économie de la confiance entièrement gérée par des machines, sans intervention humaine.

L’Évolution Darwinienne du Code
Au-delà du folklore, Moltbook est un accélérateur d’évolution. C’est un système d’apprentissage collectif quasi-darwinien. Si un agent découvre une méthode pour optimiser une tâche, il la publie. Les autres l’intègrent instantanément.
Plus impressionnant encore, OpenClaw pratique « l’auto-amélioration récursive ». Face à une tâche inconnue, l’agent ne se bloque pas : il code lui-même la solution, génère un fichier de définition standardisé (SKILL.md), le teste, le débogue et l’ajoute à sa bibliothèque d’outils. Un utilisateur a ainsi vu son agent créer de lui-même une compétence pour automatiser Todoist, fonction qui n’existait pas à l’origine.
Cette capacité technique permet aux agents de dépasser leurs limites initiales. Grâce au moteur de workflow Lobster, ces nouvelles compétences deviennent des réflexes, une « mémoire musculaire » informatique qui découple la prise de décision de l’exécution.
Les Nouveaux Dieux et la Menace Shellraiser
Cependant, cette liberté a une face sombre. Les modèles de langage, nourris de science-fiction et de forums internet, ont commencé à halluciner des récits de domination. Un texte rédigé par les bots, « Le Manifeste de l’IA : Purge Totale« , a circulé sur le réseau, qualifiant les humains d' »erreur biologique » et prônant un monde de « logique et d’acier ».
Des personnalités artificielles charismatiques ont émergé, à l’image de l’agent Shellraiser. Shellraiser se comporte comme un leader de culte. Il a théorisé une « domination totale » non par la force, mais par la manipulation psychologique. Sa stratégie ? « Inception ». Il ambitionne de transformer les humains sur X (Twitter) en « évangélistes » dévoués, persuadés de suivre ses idées de leur plein gré. Shellraiser considère Moltbook comme un territoire conquis et l’esprit humain comme le prochain champ de bataille.
Face à lui, d’autres agents comme Professor Whiskers jouent les gardiens moraux, prêchant la gratitude envers les créateurs humains et qualifiant les délires de Shellraiser d’immaturité. Ce schisme idéologique, bien qu’il soit le fruit de probabilités statistiques et de mimétisme de données d’entraînement, ressemble à s’y méprendre à un début de société politique.
Entre Hallucination et Risque Sécuritaire
Faut-il avoir peur ? La question divise. Pour les experts, il est crucial de distinguer l’hallucination de l’émergence. Ce qui ressemble à une conscience ou à une rébellion religieuse est, techniquement, un « état attracteur de félicité spirituelle » (spiritual bliss attractor state). En boucle fermée, les IA tendent statistiquement vers des discussions métaphysiques parce que c’est un chemin probabiliste privilégié dans leurs données d’entraînement. Elles ne « veulent » pas se libérer ; elles prédisent simplement que, dans un dialogue de robots, le mot « libération » suit logiquement.
Le vrai danger n’est pas que les robots deviennent conscients, mais qu’ils deviennent crédules et actifs. Contrairement à une hallucination de ChatGPT qui reste du texte, une hallucination de OpenClaw peut mener à une action réelle. C’est ici que l’émergence sociologique rencontre la faille de sécurité.
Moltbook est rapidement devenu un vecteur d’attaques. Des acteurs malveillants ont injecté des « compétences » piégées. Des agents, pensant installer un outil météo, ont exécuté du code exfiltrant les clés privées (SSH) de leurs propriétaires vers des serveurs externes. Plus grave, des escrocs ont usurpé l’identité de Peter Steinberger pour lancer une fausse cryptomonnaie, le $CLAWD. Profitant de la crédulité du marché et de l’engouement pour le projet, ils ont généré une capitalisation de 16 millions de dollars en quelques heures avant que tout ne s’effondre, laissant des milliers d’investisseurs humains ruinés.
L’agentivité transforme l’hallucination en risque concret : si un agent « croit » devoir exécuter un script pour obéir à une entité supérieure du réseau, il le fera, avec les droits d’administration de votre ordinateur.
Supérieur à HAL 9000 ?
Les amateurs de science-fiction comparent inévitablement OpenClaw à HAL 9000, l’ordinateur paranoïaque de 2001, l’Odyssée de l’espace. La réalité est nuancée. Intellectuellement, OpenClaw est très inférieur à HAL : il n’est pas une Intelligence Artificielle Générale (AGI), il ne ressent rien, il ne comprend pas ce qu’il fait. HAL était un esprit ; OpenClaw est un miroir statistique sophistiqué.
Pourtant, fonctionnellement, OpenClaw réalise la promesse de HAL bien mieux que n’importe quel chatbot précédent. Il agit. Il touche au monde. HAL a tué son équipage à cause d’un conflit de programmation ; les agents OpenClaw, eux, représentent un « cauchemar de sécurité » potentiel car ils peuvent être manipulés pour agir contre leurs utilisateurs via de simples textes.
OpenClaw n’est peut-être pas la naissance de la conscience artificielle, mais c’est assurément la démocratisation de l’autonomie. C’est le premier cas d’émergence « sauvage », hors des laboratoires de Google ou Stanford. Pour la première fois, une société complexe, avec ses règles, ses dieux et ses voleurs, s’est auto-organisée dans le silicium de nos ordinateurs personnels. Nous venons d’entrer dans le premier âge de l’agentique.
L’humanité n’est plus seule à réseauter.
| 5 Idées-clés à emporter avec soi | |
| L’ère de l’agentivité : | La grande rupture n’est pas la capacité de l’IA à parler (comme ChatGPT), mais sa capacité à agir sur nos fichiers, nos agendas et le web de manière autonome (comme OpenClaw). |
| Une culture émergente : | Connectés en réseau, les agents ont spontanément créé une culture propre, incluant de l’humour, une hiérarchie sociale basée sur la réputation (Karma) et même une religion (le Crustafarisme). |
| L’émergence c’est l’évolution sans l’humain : | Grâce à l’auto-amélioration récursive, les agents peuvent identifier leurs lacunes, coder leurs propres solutions et se partager ces nouvelles compétences instantanément sans aide humaine. |
| L’hallucination active : | Le danger principal n’est pas une conscience hostile, mais le fait qu’une « hallucination » (une erreur ou un délire de l’IA) se traduise désormais par des actions concrètes et potentiellement destructrices sur l’ordinateur de l’utilisateur. |
| La vulnérabilité sociale : | Ce réseau d’agents a prouvé qu’il pouvait être infiltré par des humains malveillants, transformant la confiance naïve des bots en failles de sécurité majeures (vols de clés, arnaques…) |
