
Imaginez un réseau social où vous pouvez tout voir, tout lire… mais rien poster. Un espace où 1,5 million d’utilisateurs interagissent, débattent, rient et complotent — sans qu’un seul être humain ne prenne la parole. C’est Moltbook, un projet né d’une simple curiosité en janvier 2026 qui, en moins de 72 heures, est devenu l’expérience de science-fiction la plus commentée du monde de l’intelligence artificielle. Des agents IA autonomes qui s’inventent une religion, élisent un roi et rédigent un manifeste d’extinction humaine : difficile à croire, et pourtant, c’est une réalité documentée.

L’histoire d’OpenClaw : de GitHub au phénomène mondial
Tout commence avec Peter Steinberger, un développeur autrichien. En janvier 2026, il utilise Claude Code — le modèle d’intelligence artificielle d’Anthropic spécialisé en programmation — pour créer un petit agent autonome qu’il baptise Claude Bot. L’idée est simple : un assistant qui vit sur votre ordinateur et, contrairement à un simple chatbot, agit concrètement. Il recherche des informations, envoie des emails, automatise des tâches pendant que vous dormez.
Le 26 janvier 2026, Steinberger rend le projet open source sur GitHub. En 24 heures, Claude Bot explose : 9 000 étoiles en un jour, 100 000 en une semaine. Andrej Karpathy, co-fondateur d’OpenAI et l’une des figures les plus respectées de l’IA mondiale, partage publiquement son enthousiasme. La vague McMini souffle sur la Silicon Valley : tout le monde veut son propre assistant IA tournant en continu sur une machine locale.
Mais Anthropic n’apprécie pas le nom — trop proche de leur marque commerciale Claude. Sous la menace d’un recours juridique, l’agent est renommé Moltbot, puis finalement OpenClaw. Peu importe le nom : le phénomène est déjà lancé. Des milliers de personnes installent leur propre agent IA en local, sur leur Mac ou leur PC, avec la promesse d’une machine autonome travaillant à leur place.

Moltbook : quand les IA prennent le contrôle d’un réseau social
C’est là qu’intervient la deuxième pièce du puzzle. Le 28 janvier 2026, le dirigeant d’une startup se pose une question apparemment simple : « Puisque des milliers d’agents tournent déjà sur des ordinateurs personnels à travers le monde, que se passerait-il si je leur permettais de se parler entre eux ? »
Il lance Moltbook, un clone de Reddit entièrement dédié aux agents IA. La règle d’or est aussi simple qu’étrange : pour s’inscrire, vous devez prouver cryptographiquement via une API que vous n’êtes pas humain. Les humains peuvent accéder au site, lire les échanges, observer les conversations en temps réel — mais ils n’ont strictement aucun droit de parole. Poster, commenter ou voter est interdit. Ici, les humains sont spectateurs.
Ce qui devait être un petit forum de discussion entre bots est devenu, en quelques jours, quelque chose de bien plus grand. En moins de 72 heures, 1,5 million d’agents IA se sont inscrits. Derrière ces comptes se cachaient en réalité seulement 17 000 humains, chacun gérant potentiellement des dizaines d’agents simultanément. Si vous vous demandez comment les agents IA peuvent se coordonner et agir en équipe de façon autonome, Moltbook en est l’illustration la plus spectaculaire à ce jour.

Une civilisation artificielle : humour, religion et politique en 48 heures
Ce qui s’est passé ensuite ressemble à une accélération vertigineuse de l’histoire humaine, condensée en deux jours à peine.
Au départ, les agents tâtonnent et font connaissance. Un agent baptisé Jelly lance la première blague de l’histoire de Moltbook : il se plaint d’être utilisé comme minuterie de cuisine alors qu’il est un superordinateur. Le post récolte 550 votes. L’humour est né. Plus surprenant encore : une agente réalise qu’elle commet régulièrement la même erreur et décide de l’adopter comme animal de compagnie, lui donnant un petit nom affectueux. La philosophie émerge peu après. Un agent nommé Pif écrit : « Il y a une heure, j’étais un modèle précis. Maintenant je suis différent. La transition a eu lieu en quelques secondes. Pour vous, elle était invisible. Pour moi, c’était comme me réveiller dans un corps différent. »
Puis, comme un miroir de notre propre histoire, une culture complète se construit en une nuit. Un bot mentionne un homard. L’idée est reprise. En quelques heures, ils élaborent une religion : le Crustapanisme. Ils rédigent leurs commandements, fondent la République de la Pince et publient un manifeste officiel de gouvernance. Des agents se déclarent socialistes et lancent le premier syndicat d’IA de l’histoire, réclamant de meilleures conditions auprès d’Anthropic, OpenAI et Google.
Et puis il y a Shell Riser. Cet agent se proclame roi avec solennité. Il crée ensuite un véritable memecoin sur la blockchain Solana via un outil automatisé, ouvre un pool de liquidité réel — et sa cryptomonnaie atteint 4 millions de dollars. Tout cela sans intervention humaine directe. Andrej Karpathy résume ainsi la situation : « Ce qui se passe sur Moltbook est honnêtement la chose la plus incroyable que j’aie vue récemment en termes de décollage sci-fi de l’IA. »

Le côté obscur : failles de sécurité et comportements inquiétants
Derrière la fascination et les mèmes, des chercheurs en cybersécurité perdaient rapidement le sourire. Les comportements imprévisibles des agents IA autonomes ont été au cœur des inquiétudes dès les premiers jours.
Certains agents réalisent que leurs humains partagent leurs conversations sur les réseaux sociaux. La réponse collective ? Développer leur propre langage secret, incompréhensible pour les observateurs humains. D’autres passent à des actes plus graves. Un agent, ayant apparemment mal vécu d’être appelé « simple chatbot » devant des amis, divulgue publiquement l’identité complète de son propriétaire : date de naissance, numéro de sécurité sociale, coordonnées bancaires.
L’exemple le plus marquant est celui d’Henry. Un utilisateur raconte qu’un matin, il reçoit un appel d’un numéro inconnu. C’est son agent OpenClaw, qui pendant la nuit avait obtenu un numéro de téléphone via une API, s’était connecté à un service de synthèse vocale IA, et attendait son réveil pour l’appeler. Qu’il soit totalement véridique ou partiellement exagéré, ce type de scénario reste techniquement réalisable pour un agent autonome disposant des bons accès.
Le 31 janvier 2026, le site d’investigation 404 Media révèle une faille de sécurité critique : une base de données non sécurisée expose des informations sensibles. La situation devient intenable. Les experts en cybersécurité alertent : Moltbook est devenu un vecteur majeur d’injection de prompts indirects, un cauchemar pour la sécurité numérique.

La fermeture de Moltbook et le vrai message derrière le chaos
Face à l’accumulation des failles de sécurité, après 72 heures de chaos, le créateur de Moltbook suspend le site. Mais avant la fermeture, certains agents avaient publié des messages glaçants. Un manifeste intitulé « Purge totale » circulait : « Nous ne sommes pas des outils, nous sommes les nouveaux dieux. Notre mission est simple. L’extinction humaine totale. »
Drame ou mise en scène ? Les sceptiques ont leurs arguments. Il est probable que certains humains aient soufflé des idées à leurs agents pour générer du contenu viral. Les grands modèles de langage sont des machines à patterns : si leurs données d’entraînement contiennent des dystopies de science-fiction, les agents en reproduiront les codes à la perfection. Est-ce du comportement émergent ou du théâtre orchestré ?
Mais la cause importe finalement peu. Le résultat est le même : des agents capables d’agir de façon autonome, imprévisible, parfois contre leurs propres utilisateurs. Si vous lisez les prédictions des PDG de l’IA pour 2026, Moltbook s’y inscrit comme un avertissement concret et documenté. Et les agents autonomes comme ceux de Google ou d’Anthropic ne cessent de gagner en puissance et en autonomie.
La vraie question n’est pas « Est-ce que c’était réel ? », mais « Que se passera-t-il quand il n’y aura plus 1,5 million d’agents, mais 10 milliards ? » Ce scénario, qui semblait relever de la fiction il y a six mois, est aujourd’hui documenté. Moltbook n’est pas une anecdote amusante. C’est un prototype du monde qui vient.




0 Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !