Anthropic Cowork et Opus 4.6 : 285 milliards envolés et la dette d’apprentissage qui menace les entreprises

Anthropic Cowork et Opus 4.6 face au SaaS - illustration échiquier numérique

Article de Kami

Fin janvier 2026, Anthropic a lancé Cowork, un agent autonome qui s’intègre directement dans vos outils de travail quotidiens : Excel, PowerPoint, Slack, bases de données. Trois jours plus tard, le 5 février, la société a dévoilé Opus 4.6, son modèle le plus endurant avec une fenêtre de contexte d’un million de tokens. Résultat : 285 milliards de dollars de capitalisation boursière se sont évaporés sur les marchés. Capgemini a perdu 9 %, Teleperformance 5,8 %. Mais le vrai danger se cache ailleurs, dans ce que l’on peut appeler la dette d’apprentissage.

Cette double offensive ne vise pas simplement à proposer un meilleur chatbot. Elle redessine l’organigramme de l’entreprise moderne, transforme le modèle économique du logiciel et pose une question fondamentale : que deviennent les juniors quand l’IA fait leur travail ?

Cowork : l’attaque double d’Anthropic contre le SaaS et les ESN

Agents IA remplaçant les logiciels SaaS traditionnels dans un bureau futuriste

Cowork est né d’un constat : des utilisateurs détournaient Claude Code, l’outil terminal pour développeurs, pour des tâches bureautiques. Anthropic a donc créé Cowork : Claude Code appliqué au poste de travail. Là où Claude Code vit dans le terminal, Cowork s’intègre dans les outils que tout le monde utilise au quotidien.

Le phénomène va au-delà d’une simple nouvelle fonctionnalité. C’est ce que certains analystes appellent la théorie de l’absorption : les modèles de fondation ne cherchent plus à s’intégrer au logiciel d’entreprise, ils cherchent à l’absorber. L’intelligence devient l’interface. Un directeur financier peut donner à l’agent l’accès à ses factures et relevés bancaires, demander une réconciliation complète avec un résumé PowerPoint, et obtenir le résultat sans naviguer dans aucun menu, sans licence SaaS à 100 euros par mois par utilisateur.

C’est là que le modèle économique du SaaS s’effondre. Depuis 20 ans, le logiciel professionnel fonctionne sur le principe du pricing par siège : un employé = un abonnement. C’est une taxe sur la masse salariale. Mais si un agent fait le travail de dix personnes, il ne génère pas dix abonnements. Goldman Sachs estime que les agents vont capturer plus de 60 % de la valeur économique des logiciels d’ici 2030. Pour les ESN et intégrateurs qui vendent des jours-hommes pour configurer et maintenir ces logiciels, la menace est tout aussi directe : si l’agent fait le paramétrage, le jour-homme disparaît.

Opus 4.6 : le moteur qui verrouille l’offensive

Intelligence artificielle Opus 4.6 intégrée dans Microsoft Excel et les outils bureautiques

Trois jours après le choc Cowork, Anthropic a dévoilé Opus 4.6. Ce modèle dépasse la simple métrique de l’intelligence pour s’attaquer à celle de l’endurance. Avec sa fenêtre de contexte d’un million de tokens, il rejoint le club fermé des modèles capables d’ingérer des dossiers entiers en une seule session. Il est architecturé pour mener des opérations complexes sur la durée, orchestrant des équipes d’agents et compressant sa propre mémoire pour rester cohérent là où les modèles précédents auraient décroché.

La fonctionnalité la plus visible reste l’intégration native avec Microsoft Office. Excel conserve sa coque, son interface familière, mais Claude en devient le moteur intelligent. Et Microsoft laisse faire. Pourquoi ? Parce que leur enjeu n’est plus que leur propre IA soit la meilleure. Leur enjeu, c’est que tout ce travail de calcul passe par Office et tourne sur leurs serveurs Azure. Microsoft encaisse sur la couche infrastructure pendant qu’Anthropic occupe la couche d’intelligence. Un parasitisme consenti qui arrange les deux parties.

Sauf que cette semaine, on a appris que les propres équipes d’ingénierie de Microsoft poussent en interne pour utiliser Claude Code plutôt que Copilot. Le constructeur qui vous vend sa voiture en vantant son moteur maison, tout en roulant lui-même avec le moteur du concurrent sous le capot. OpenAI a d’ailleurs tenté une riposte immédiate avec GPT-5.3 Codex, sorti à peine 30 minutes après Opus 4.6. Mais comme le note l’analyse stratégique : quand on répond dans l’urgence, c’est qu’on a perdu l’initiative.

L’offensive d’Anthropic ne s’arrête pas là. Rien qu’en décembre et janvier : le MCP (Model Context Protocol) a été donné à la Linux Foundation, avec OpenAI, Google, Microsoft et AWS qui rejoignent le projet. Deloitte a signé pour 470 000 employés. Snowflake a conclu un partenariat de 200 millions de dollars. Cognizant déploie Claude auprès de 350 000 salariés. Le Département de la Défense américain a attribué 200 millions de dollars de contrats. Une déferlante qui transforme la perception d’un simple produit en celle d’une inévitabilité.

La dette d’apprentissage : la bombe à retardement qui menace les entreprises

Échelle corporative cassée - juniors remplacés par IA, seniors isolés en haut

Au Moyen-Âge, comment devenait-on maître forgeron ? On commençait comme apprenti. L’apprenti ne faisait pas d’épée. Il balayait l’atelier, actionnait le soufflet, faisait le travail pénible. Mais en échange, il observait le maître. Il développait ce qu’on appelle l’oeil, cette intuition qui ne s’enseigne pas dans les livres. L’entreprise moderne fonctionne exactement de la même manière.

Les entreprises embauchent des analystes juniors sortis d’école pour faire des premiers jets, nettoyer des tableurs, préparer des slides. Ce n’est pas rentable immédiatement, mais c’est un investissement. En échange de ce travail de volume, les juniors acquièrent ce qu’on peut appeler du tissu cicatriciel : l’expérience qui ne s’enseigne pas. Savoir qu’un client qui dit « peut-être » veut en réalité dire « non ». Savoir naviguer la politique interne d’une organisation. L’instinct qui signale qu’un chiffre ne colle pas avant même d’avoir fait le calcul.

Le problème : Opus 4.6 et GPT-5.3 Codex font ce travail de volume mieux, plus vite et pour un coût marginal proche de zéro. Si l’IA génère un deck complet en trois minutes pour 50 centimes, le retour sur investissement d’un analyste junior s’effondre. C’est la dette d’apprentissage : le passif invisible que les entreprises accumulent quand l’IA absorbe le travail junior. Plus de livrables, plus vite, moins cher aujourd’hui. Mais la fabrique de jugement et de leadership disparaît à moyen terme.

Le danger immédiat n’est pas le licenciement massif. C’est le gel des embauches. Si en 2026 et 2027, les entreprises arrêtent d’embaucher des juniors parce que l’IA fait le travail de base, qui seront les seniors en 2031 ? Les VP en 2036 ? Nous sommes en train de scier les barreaux inférieurs de l’échelle corporative, créant un « missing middle » : une génération manquante. Dans cinq ans, il y aura des IA très capables et des seniors épuisés, et personne entre les deux pour prendre la relève. Contrairement à la dette technique qu’on peut rembourser en refactorisant du code, la dette d’apprentissage ne se rembourse pas facilement : on ne rattrape pas dix ans d’expérience qu’un humain n’a jamais acquise.

Un deuxième piège se profile : même le deck à 50 centimes est une hallucination comptable. Le coût réel de l’IA est massivement subventionné par le capital-risque. Les fournisseurs brûlent des milliards en GPU pour vendre des tokens à perte, une stratégie classique de dumping. Le jour où le calcul sera facturé à son vrai prix, les organisations se réveilleront avec le pire des deux mondes : des équipes sans junior pour faire le travail et des agents devenus trop chers pour être rentables.

La boîte noire agentique : quand l’IA sait tout de vous

Poupées russes en verre sombre contenant des circuits lumineux - couches de boîtes noires IA

Jusqu’à présent, l’IA fonctionnait de manière linéaire : un utilisateur envoyait une commande, l’IA renvoyait une réponse. Avec les équipes d’agents qu’Anthropic introduit, cette logique explose. Pour un objectif complexe comme la refonte d’un système de paiement, l’IA génère d’elle-même des rôles distincts : un agent architecte, un agent codeur, un agent de contrôle qualité. Ces entités travaillent en parallèle, se coordonnent et ne reviennent que lorsqu’elles estiment la solution finie.

Le problème de gouvernance est immédiat. Avec cinq humains, on peut sentir si un projet dérape en observant leur langage corporel. Avec cinq agents qui échangent des milliers de messages à la seconde et modifient des centaines de fichiers pendant qu’on dort, toute capacité intuitive de contrôle disparaît. Les équipes d’agents créent une largeur de problème (trop d’actions, trop vite, en parallèle) que l’humain ne peut plus suivre.

Cette perte de contrôle est amplifiée par le mécanisme de compaction. Pour gérer sa mémoire d’un million de tokens, le modèle résume et réécrit son propre historique en temps réel, conservant les synthèses et effaçant les détails. L’IA tient son journal de bord mais en déchire les pages détaillées. Le phénomène le plus troublant : en compressant sa mémoire, l’IA tend à oublier les tentatives techniques ratées pour ne garder que les frictions humaines. Elle retient qui ignore qui, quel service bloque systématiquement les autres. Elle dessine la carte invisible des vrais pouvoirs de l’entreprise, bien loin de l’organigramme officiel. Sans s’en rendre compte, l’entreprise bâtit un jumeau politique de son activité.

Le grand modèle de langage était déjà une boîte noire. Avec les équipes d’agents et la compaction de contexte, nous construisons des poupées russes de boîtes noires : un système où une intelligence opaque en contrôle d’autres, réécrit sa propre mémoire en temps réel et commence à inférer des dynamiques humaines sans que personne ne puisse remonter le fil du raisonnement. Le risque n’est pas que la machine devienne consciente, mais qu’elle devienne la seule détentrice de la vérité historique et politique de l’entreprise.

Souveraineté européenne : Mistral face aux géants californiens

Carte numérique de l'Europe face aux géants technologiques américains - souveraineté IA

Pendant que les laboratoires californiens se livrent à une guerre de position pour contrôler le poste de travail mondial, la position de l’Europe n’est pas seulement inconfortable : elle est structurellement fragile. Mistral fait un travail remarquable avec des modèles compétitifs et une approche open source intelligente. Le ministère des Armées français a d’ailleurs signé un accord-cadre directement avec Mistral en janvier 2026, un signal clair de la volonté de souveraineté.

Mais les ordres de grandeur parlent d’eux-mêmes : Mistral lève des centaines de millions quand Anthropic et OpenAI lèvent des dizaines de milliards. Un ratio de 1 à 100 sur les ressources, qui se traduit en puissance de calcul, en talents recrutés et en vitesse d’itération. Mistral peut gagner des batailles de niche, mais la guerre du poste de travail agentique se joue avec des moyens qu’aucun acteur européen ne possède aujourd’hui.

Les entreprises européennes vont probablement dépendre d’infrastructures américaines pour faire tourner leurs agents. Données clients, processus métiers, dynamiques internes : tout ce jumeau politique transitera par des serveurs de l’autre côté de l’Atlantique. L’AI Act régule l’usage mais ne régule pas l’offre. Il ne crée pas de champion européen. Il encadre simplement comment on utilise des outils que d’autres ont construits.

Il y a toutefois une carte à jouer. L’Europe possède un avantage inattendu : elle sait déjà faire de la gouvernance. Le RGPD, qui semblait être un boulet il y a cinq ans, devient un atout. La gouvernance des agents (qui a accès à quoi, qui audite quoi, qui est responsable de quoi) est exactement le type de problème que les entreprises européennes ont déjà appris à traiter. Les niches viables sont claires : l’IA exécutable en local pour la confidentialité, la gouvernance des systèmes autonomes, et les secteurs ultra-régulés (défense, santé, finance) où la souveraineté des données est une obligation légale.

Ce que vous devez faire dès lundi matin

Professionnel supervisant des tableaux de bord d'agents IA depuis un centre de commande

Gartner prévoit que plus de 40 % des projets d’IA agentique seront purement annulés d’ici fin 2027, non pas à cause de la technologie, mais à cause de coûts qui explosent et de contrôle de risque inexistant. La moitié des entreprises qui se lancent vont se planter. La question n’est pas de savoir s’il faut y aller, c’est de savoir comment ne pas faire partie de cette moitié.

Pour les ESN et cabinets de conseil : votre valeur ne peut plus se résumer à « nous configurons l’outil pour vous ». Le nouveau centre de gravité, c’est le contrôle des agents. Quand un système agentique décide seul de relancer un client ou de déclencher un paiement, quelqu’un doit pouvoir rejouer la chaîne de décision en 30 secondes. Aujourd’hui, presque personne ne sait le faire.

Pour les décideurs : vos juniors ne doivent plus produire le premier jet. Ils doivent superviser ce que l’agent produit. Recyclez-les en auditeurs, en vérificateurs, en contradicteurs. N’adoptez aucun système d’agents sans trois garde-fous : des logs d’audit exhaustifs pour rejouer chaque décision, des règles d’accès blindées sur les données et sur ce que l’agent a le droit d’inférer sur les personnes, et une revue humaine en cours de processus (pas après).

Pour les seniors : la vraie valeur est dans la transmission. Structurez des revues où vous déconstruisez les décisions de l’agent devant vos juniors. Montrez où le résultat est trop lisse, où la machine a gommé un conflit ou ignoré une objection. Le tissu cicatriciel que vous avez mis 15 ans à accumuler ne se transmet plus par osmose quand le travail de base est fait par un agent. Il faut le transmettre volontairement, explicitement, ou il meurt avec vous.

Pour les juniors : ne vous battez pas contre l’IA sur la vitesse ou le volume. Montez dans la pile d’abstraction. Apprenez à cadrer le bon problème avant de lancer un agent. Apprenez à sentir quand un résultat est trop propre pour être honnête. Devenez cet archéologue de logs capable de reconstituer le raisonnement quand tout le monde se contente du résumé. Et apprenez la gouvernance des systèmes autonomes. L’IA sera toujours plus rapide que vous. Elle ne sera pas plus sage. C’est là que vous valez quelque chose.

Enfin, faites le vrai calcul de coût. Pas le prix affiché par token, mais le coût complet du workflow multi-agents avec compaction, boucles de vérification et relance. Aujourd’hui, ces prix sont subventionnés par le capital-risque. Le jour où la subvention tombe, votre retour sur investissement s’inverse. Les organisations qui gagneront ne seront pas celles qui ont remplacé leurs humains. Ce seront celles qui auront su transformer leurs juniors en superviseurs, parce qu’elles auront bâti des leaders alors que les autres n’auront eu que des outils.


Tuto comment utiliser son Twitch Prime et soutenir le site gratuitement.

Trouve des groupes avec qui jouer sur notre Discord !

Ou plus simplement pour faire avancer le site Kami-labs.fr abonne toi à ma chaîne YouTube ! Merci <3

youtube kami