
Il y a des mises à jour qu’on parcourt en diagonale. Et puis il y en a d’autres qui méritent qu’on pose ce qu’on fait pour les lire en entier. OpenClaw 2026.3.11 appartient clairement à la deuxième catégorie. En une seule version, le gateway d’agents IA open-source vient de livrer cinq évolutions majeures qui changent concrètement la façon dont les professionnels construisent des pipelines d’automatisation. Contexte d’un million de tokens gratuit, fin des réponses tronquées, mémoire vectorielle améliorée, support du langage Go, et un sprint de sécurité en profondeur : voici tout ce qu’il faut retenir.
Pour rappel, OpenClaw est un gateway d’agents IA auto-hébergé et open-source. Concrètement, c’est le hub central qui relie tous vos agents entre eux, gère leurs communications, route leurs actions et garde vos données dans votre propre infrastructure. Vos documents sensibles, vos données clients, vos informations internes ne transitent jamais par un cloud tiers. Vous restez propriétaire de l’ensemble, ce qui change beaucoup de choses quand on pilote une vraie activité. Si vous cherchez à comprendre comment fonctionnent les grands modèles de langage qui alimentent ces agents, notre article dédié fait le tour du sujet.
Hunter et Healer : 1 million de tokens de contexte, gratuits

C’est la nouveauté phare de cette version. OpenClaw introduit deux modèles en phase alpha : Hunter et Healer. Tous deux sont disponibles via Open Router dès maintenant, et tous deux supportent jusqu’à 1 million de tokens de contexte.
Pour mesurer ce que ça représente : la plupart des modèles standard travaillent avec une fenêtre comprise entre 4 000 et 128 000 tokens. Un million de tokens, c’est la capacité d’ingérer en une seule passe l’intégralité d’une base de connaissances, un historique complet de conversations, ou une bibliothèque de documents massifs. Le modèle traite tout simultanément, sans découpage, sans résumé intermédiaire, sans perdre le fil en cours de route.
Hunter est conçu pour la recherche approfondie et la récupération d’informations. Healer est optimisé pour la synthèse et la résolution de problèmes. Ils sont pensés pour travailler en tandem dans vos pipelines d’agents OpenClaw. Et pendant la phase alpha, les deux sont entièrement gratuits via Open Router — un avantage décisif pour quiconque veut tester des workflows à grand contexte sans payer au token à chaque exécution.
GPT 5.4 : fini les réponses qui s’arrêtent en plein milieu

Si vous avez utilisé GPT dans un workflow d’agents, vous connaissez le problème : le modèle s’interrompt en pleine phrase, en pleine tâche. Il retourne une réponse incomplète, et tout votre pipeline se retrouve bloqué. C’est un comportement frustrant, d’autant plus difficile à corriger qu’il survient de façon imprévisible sur les générations longues.
OpenClaw 2026.3.11 répond directement à ce problème avec la gestion de continuation des sorties pour GPT 5.4. Quand le modèle atteint sa limite de génération en milieu de réponse, OpenClaw détecte automatiquement la coupure, envoie une requête de continuation, puis assemble la sortie complète avant de la transmettre en aval. Vos agents reçoivent des réponses entières. Vos pipelines cessent de planter à cause de sorties tronquées.
Pour tout ce qui implique de la génération longue forme — rédaction détaillée, raisonnement multi-étapes, tâches d’écriture complexes — c’est une amélioration concrète de la fiabilité. Moins d’échecs, moins de surveillance manuelle, des résultats plus stables. Si cette tendance vous intéresse, notre analyse de ChatGPT 5.4 et ses capacités qui dépassent les humains apporte un éclairage complémentaire sur ce que ce modèle a changé.
Gemini Embedding 2 : une mémoire d’agent bien plus précise

Cette mise à jour concerne la façon dont vos agents se souviennent des choses. OpenClaw adopte désormais Gemini Embedding 2 comme modèle d’embedding par défaut pour sa couche mémoire. Les embeddings, ce sont les représentations vectorielles qui permettent à un système IA de stocker des informations et de les retrouver plus tard de manière pertinente.
De meilleurs embeddings signifient que le système récupère des souvenirs plus pertinents quand un agent cherche quelque chose. Gemini Embedding 2 produit des représentations vectorielles de meilleure qualité que l’ancienne valeur par défaut. En pratique, vos agents tirent la bonne information au bon moment, plutôt que quelque chose de vaguement proche.
Imaginez un agent de support qui répond aux questions d’une communauté. Il doit puiser la bonne réponse dans une grande base de connaissances, des réponses passées et du contenu de formation. Avec de meilleurs embeddings, il trouve la pièce exacte au lieu de quelque chose qui ressemble de loin. Les réponses deviennent plus précises, les membres obtiennent de l’aide plus ciblée, sans que votre équipe ait à intervenir aussi souvent. Les avancées de Gemini 3.1 Pro de Google illustrent bien à quel point cette famille de modèles évolue rapidement.
Open Code supporte désormais le langage Go

Open Code, l’agent de codage intégré à OpenClaw, prend maintenant en charge Go comme langage de programmation. Go est rapide, léger, et largement utilisé pour la construction de systèmes backend, d’APIs et d’outillage infrastructure. Une grande partie des équipes qui construisent des pipelines d’agents sérieux travaillent en Go.
Avec ce support ajouté à Open Code, vous pouvez désormais utiliser l’agent de codage pour générer, réviser et itérer sur du code Go directement dans votre environnement OpenClaw. Vous décrivez ce que vous voulez construire, Open Code l’écrit, vous itérez sans quitter la plateforme. C’est une mise à jour plus modeste que les autres dans cette version, mais pour les développeurs qui travaillent en Go, elle supprime un vrai point de friction.
Sprint de sécurité : authentification et permissions renforcées

Pour cette version, l’équipe OpenClaw a consacré un sprint entier au renforcement de la sécurité. Sans entrer dans le détail des vulnérabilités corrigées, les travaux ont couvert l’authentification, la gestion des tokens API et la communication inter-agents. Un système de contrôle de permissions plus granulaire a également été introduit, permettant de définir précisément quels agents ont le droit de faire quoi dans votre environnement.
Pour ceux qui font tourner OpenClaw en environnement de production avec de vraies données métier, c’est probablement la mise à jour la plus importante de la liste. L’auto-hébergement ne garantit pas automatiquement la sécurité — la plateforme que vous utilisez doit elle-même être correctement durcie. Le fait que l’équipe ait dédié un sprint entier à ce sujet est un signal positif. Avant de mettre à jour, lisez le changelog de sécurité complet dans les notes de version : quelques changements breaking sur la couche d’authentification sont à anticiper avant de pousser en production. La question de la sécurité des systèmes IA est de plus en plus centrale, comme en témoigne l’affaire Claude Code Security qui a agité le secteur.
Ce que toutes ces mises à jour indiquent, c’est une direction claire : les agents IA deviennent plus capables, plus fiables et plus sécurisés à chaque version. L’écart entre les entreprises qui construisent avec cette technologie aujourd’hui et celles qui ne le font pas encore se creuse chaque mois. La fenêtre de contexte d’un million de tokens à elle seule représente un changement de catégorie — les workflows qu’elle permet n’étaient tout simplement pas envisageables il y a six mois. Pour aller plus loin sur les outils d’agents IA capables d’automatiser des projets de A à Z, notre article sur Perplexity Computer explore une approche complémentaire.




0 Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !