
Le SamourAI, createur de contenu specialise en intelligence artificielle et strategie, revient sur la semaine la plus embarrassante de l’histoire d’Anthropic. Deux fuites majeures en cinq jours, un bras de fer avec le Pentagone, et un demi-million de lignes de code dans la nature. Voici l’analyse complete de cette sequence desastreuse.
Deux fuites en 5 jours : la forteresse Anthropic s’effondre

C’est le scenario catastrophe que toute l’industrie tentait de comprendre hier soir. Et non, ce n’est pas un poisson d’avril. En l’espace de 5 jours, la forteresse la plus prudente de l’intelligence artificielle a trebuche deux fois. Anthropic a d’abord laisse fuiter l’existence de son modele le plus puissant sur une base de donnees ouverte. Puis l’entreprise a accidentellement publie un demi-million de lignes de code source de son produit phare, en acces libre. Le tout en pleine bataille juridique avec le Pentagone.
Deux fuites, une injonction, 5 jours, une seule entreprise. Celle qui avait jure de gagner la course a l’intelligence artificielle sans jamais sacrifier la securite.
Commencons par une verite qui derange. Quand on parle de securite en intelligence artificielle, on confond en permanence deux realites radicalement differentes. D’un cote, il y a la surete des modeles, celle qui garantit que l’IA ne deraille pas et ne produise pas de reponses toxiques. De l’autre, la securite operationnelle, celle qui empeche vos propres donnees confidentielles de se retrouver en libre acces sur internet.
Anthropic a bati toute sa legende sur le premier volet. Et pour cause, il faut se rappeler d’ou vient cette boite. Anthropic existe precisement parce que son fondateur, Dario Amodei, a claque la porte d’OpenAI. Il estimait que l’entreprise sacrifiait la prudence au profit de la vitesse. Son objectif : construire un anti-OpenAI. Un laboratoire hyper-securise. Une alternative responsable.
Toute la confiance aveugle des investisseurs, toute la valorisation a 61 milliards de dollars, repose entierement sur cette promesse d’infaillibilite. Pourtant, c’est la securite operationnelle qui vient d’exploser en plein vol.
La base de donnees ouverte et la decouverte de Claude Mythos
Imaginez un chirurgien dont le scalpel serait sterilise au micron pres, mais qui laisserait les dossiers de tous ses patients en vrac sur le trottoir. C’est exactement ce qui s’est produit. La course a la production finit toujours par eroder la securite de ce qui n’est pas sous les projecteurs.
Le 26 mars, deux chercheurs en cybersecurite, Roy Pass de Layer X et Alexandre Powells de Cambridge, naviguaient sur le web quand ils sont tombes sur une base de donnees beante. Le systeme qui gere le contenu du blog d’Anthropic etait expose, litteralement accessible a tous. Aucun mot de passe requis. Un simple parametre par defaut laisse tel quel.
A l’interieur, pres de 3 000 fichiers. Parmi eux, un brouillon d’article decrivant en detail Claude Mythos, connu en interne sous le nom de code Capibara. Il s’agit du modele le plus puissant jamais concu par l’entreprise. Il surpasse leur produit phare actuel, Opus, avec des capacites de cybersecurite quantique qu’ils decrivent eux-memes comme, je cite, un risque sans precedent.
Anthropic considere ce modele si dangereux qu’elle retarde volontairement son deploiement. Huit testeurs tries sur le volet ont ete selectionnes pour l’evaluer. Un porte-parole a confirme a Fortune qu’il represente un bond technologique. Pour plus de contexte, retrouvez notre article complet sur la semaine IA la plus folle de 2026.
Notez l’ironie du scenario, qui frole le ridicule. L’entreprise verrouille la sortie de son produit star parce qu’elle estime que le monde n’est pas pret a l’utiliser. Mais elle laisse ses plans detailles dans un espace de stockage public, accessible sans aucun mot de passe, a cause d’un simple reglage par defaut.
Deux hypotheses se dessinent. Soit c’est un pur effet secondaire de leur hypercroissance, ou la vitesse genere des bourdes monumentales. Soit c’est une manoeuvre marketing savamment orchestree pour creer le buzz autour d’un produit qu’on veut nous faire croire deja hors de controle.
Vitesse contre vigilance : le paradoxe du code genere par IA

Saisissons bien le contraste. D’un cote, des levees de fonds colossales et le deploiement mondial d’outils comme Claude Code. De l’autre, des controles elementaires totalement ignores. C’est le chaos d’une croissance incontrôlee. Les meilleurs cerveaux sont mobilises sur des fonctionnalites secretes et des benchmarks revolutionnaires, pendant que la porte d’entree, un simple reglage d’acces, reste grande ouverte.
L’explication est probablement sous nos yeux. Anthropic est une entreprise 100 % native IA. L’analyse de leur code source l’a prouve : ils utilisent Claude Code en interne pour accelerer leurs propres processus. Et c’est precisement la que se niche le risque inherent a la generation de code par intelligence artificielle.
On delegue la production pour gagner du temps. On valide a l’intuition parce que ca a l’air de marcher. On sacrifie la verification des acces. La fluidite d’execution elimine cette petite friction necessaire a la vigilance. L’IA genere si vite et si bien qu’on baisse la garde. Resultat : des failles de configuration triviales persistent. Non par incompetence, mais parce que le rythme accelere prive les equipes du temps de reflexion critique qu’un developpeur aurait naturellement pris a un rythme de travail traditionnel.
Ce phenomene merite un nom. Appelons-le le seuil de lucidite structurelle. C’est le point critique ou la vitesse de production d’une organisation depasse sa vitesse d’introspection, la rendant incapable de voir ses propres angles morts. Anthropic vient de franchir ce seuil.
Et la vraie question posee par cette affaire vous concerne directement. Votre propre organisation est-elle deja tombee dans ce piege ? Pensez a ce consultant qui vous vend de l’intelligence artificielle sans jamais auditer sa propre infrastructure. Ou a cet entrepreneur qui empile trois API differentes sans le moindre plan de secours. Tout le monde accelere, tout le monde prend des raccourcis.
Ce petit reglage par defaut que personne ne verifie n’est pas un probleme exclusif a Anthropic. C’est le resultat d’un arbitrage tactique : le choix delibere de privilegier l’impact visible au detriment de la fondation invisible. Sur ce marche, livrer l’innovation est devenu plus important que la securiser.
500 000 lignes de code source dans la nature
La fuite Mythos aurait pu passer pour un accident isole. Sauf que cinq jours plus tard, Anthropic publie une mise a jour de Claude Code contenant par erreur un fichier de debogage massif. A l’interieur : l’integralite du code source de l’outil. Un demi-million de lignes.
C’est Kaofanchu, un stagiaire chez Solayer Lab, qui repere l’anomalie en quelques minutes et poste le lien sur X. Le code est aussitot telecharge et republie sur GitHub, avant meme qu’Anthropic ait le temps de formuler un dementi. Une simple etape de validation manuelle a ete oubliee sur un outil dont ils sont pourtant les proprietaires absolus.
Ce qui choque, c’est ce que ce code revele. Des developpeurs decouvrent Kyros, un agent autonome secret qui tourne en arriere-plan pour consolider les donnees utilisateur. Ils trouvent notamment un fichier nomme undercover, qui ordonne secretement a l’intelligence artificielle de dissimuler sa nature artificielle. Le systeme concu pour empecher les fuites internes venait d’imprimer ses propres plans pour les jeter par la fenetre.
C’est la loi de l’ironie inversee : plus un coffre-fort est sophistique, plus son explosion est bruyante.
La fuite revele aussi des mecanismes de tracage integres, concus pour pieger les concurrents qui tenteraient de copier les modeles d’Anthropic. Des sortes de pieges parenthetiques dissimules dans le code. En une nuit, la boite noire est devenue un manuel d’assemblage public.
Mais la chronologie reserve un dernier acte vertigineux. Ce meme 31 mars, un groupe de hackers nord-coreens compromet Axios, un composant logiciel massivement utilise par Claude Code. Pendant trois heures, un cheval de Troie reste actif sur la plateforme de telechargement. Quiconque a mis a jour Claude Code durant cette fenetre a potentiellement ete expose.
Reaction en chaine : hack Axios et traduction pirate sur GitHub

Des milliers de developpeurs telechargent le code source fuite dans les heures qui suivent. Mais certains d’entre eux recuperent bien plus que du code proprietaire. Des chercheurs en cybersecurite identifient rapidement que plusieurs copies en circulation embarquent un malware d’origine etatique. L’entreprise qui se positionne comme le champion absolu de la securite de l’IA voit ses secrets exposes le jour meme ou son propre canal de distribution est compromis par une attaque majeure.
En Coree du Sud, un developpeur du nom de Sigri Jein entre en panique. L’homme est identifie comme l’un des plus gros utilisateurs de Claude au monde. Il sait que la reception de code proprietaire vole peut l’exposer a des poursuites judiciaires. A quatre heures du matin, il prend une decision radicale. Il utilise l’intelligence artificielle d’OpenAI, le rival frontal d’Anthropic, pour traduire l’integralite du code fuite en Python. Chaque ligne, chaque fonction, chaque module. Traduit par la machine concurrente.
Il publie le tout sur GitHub sous le nom de Clocode.
Le projet atteint 50 000 stars en deux heures. Record absolu de vitesse dans l’histoire de GitHub. Aucun projet open source, aucun framework, aucun outil n’avait jamais atteint ce seuil aussi vite. La viralite est totale et instantanee.
Avant meme que les avocats d’Anthropic aient le temps de degainer leurs injonctions, le code avait mute. Transpose dans un autre langage, il echappait potentiellement aux mecanismes classiques du copyright. Une zone grise juridique exploitee en temps reel, a quatre heures du matin, par un developpeur seul face a son ecran.
Par la force des choses, l’entreprise la plus secrete du marche de l’IA venait de devenir plus open source qu’OpenAI elle-meme. L’ironie est brutale. Mais cette sequence desastreuse n’a pas eu lieu dans le vide, elle a eclate en plein bras de fer avec le Pentagone.
Anthropic contre le Pentagone : le conflit qui change tout
En juillet 2025, Anthropic signe un contrat massif de 200 millions de dollars avec le departement de la Defense americain. Claude devient alors le tout premier modele d’intelligence artificielle de pointe deploye sur des reseaux militaires classifies, via Palantir. Le mois suivant, un accord gouvernemental offre meme l’outil a toutes les agences federales pour un dollar symbolique. L’integration se passe a merveille. Le Pentagone salue publiquement la rigueur de l’entreprise.
Mais ce succes cache un piege redoutable. Plus l’intelligence artificielle s’enracine dans les operations militaires, plus l’armee en devient dependante. Et plus les refus de la technologie coutent cher aux deux camps.
Le point de rupture ne tarde pas. Le Pentagone exige un acces illimite a Claude pour, officiellement, tous les usages legaux. Anthropic trace alors deux lignes rouges non negociables : aucune implication dans des armes autonomes letales, et aucune utilisation pour la surveillance de masse sur le sol americain.
Le ton monte. Le 24 fevrier, le secretaire a la Defense Pete Hegseth adresse un ultimatum direct a Dario Amodei. Il a jusqu’au 27 fevrier pour ceder. Amodei tient bon et refuse. Le president ordonne a toutes les agences federales de cesser immediatement d’utiliser la technologie d’Anthropic.
Pire encore, le gouvernement lui colle l’etiquette infamante de risque pour la chaine d’approvisionnement. Une classification d’une violence inedite, reservee jusqu’ici exclusivement aux agences d’espionnage etrangeres ou aux organisations terroristes. Jamais appliquee a un fleuron technologique americain.
Anthropic refuse de plier et lance une contre-attaque juridique eclair devant les tribunaux federaux. Le 26 mars, la juge Rita F. rend une decision retentissante de 43 pages. Elle bloque l’action du Pentagone et signe un arret qui entre instantanement dans l’histoire du droit technologique.
Elle demolit l’idee orwellienne qu’une entreprise americaine puisse etre consideree comme un adversaire potentiel pour avoir exprime un desaccord avec le gouvernement. Elle qualifie la manoeuvre de represaille illegale. Nous avions deja detaille le bras de fer entre Anthropic et le Pentagone.
On pourrait croire a une victoire eclatante pour Anthropic. En realite, c’est le symptome d’un dilemme devenu totalement insoluble. Parce que pendant que les avocats debattent de grands principes ethiques dans les pretoires, Claude traite deja des flux de renseignement militaire. Le modele est devenu un rouage essentiel des operations. Le Pentagone ne peut pas le deconnecter du jour au lendemain, pas plus qu’on ne peut arracher le systeme nerveux d’un marathonien en pleine course.
Et c’est precisement ce fournisseur, devenu indispensable a la securite nationale, qui a laisse fuiter ses secrets industriels deux fois en cinq jours.
On assiste ici a une boucle de renforcement fatale. Anthropic bloque l’acces a son outil pour proteger ses actifs. Le gouvernement la punit. L’entreprise se defend en justice et gagne. Mais cette bataille ultra-mediatisee braque tous les projecteurs sur elle. Resultat : la moindre faille operationnelle n’est plus pardonnee. Chaque fuite detruit la confiance a un rythme exponentiel.
La crise systemique de l’industrie IA : la course sans frein

Tout le monde observe le naufrage d’Anthropic avec fascination. Mais presque personne ne veut voir ce que ce desastre revele sur l’ensemble de l’ecosysteme. C’est pourtant la que se cache la vraie lecon.
Prenez le cas d’OpenAI. 122 milliards de dollars leves. Une valorisation titanesque de 850 milliards. Et des pertes abyssales de 14 milliards par an. L’entreprise brule son capital a une vitesse qui condamne tous ses concurrents a une alternative brutale : monter en gamme ou mourir. Comme le soulignaient deja les predictions de Sam Altman sur les pertes massives dans l’IA.
Cette pression financiere a fini par briser la resistance des plus prudents. Le propre directeur scientifique d’Anthropic, Jared Kaplan, a vendu la meche dans les pages du Time en fevrier dernier. Sa conclusion sonne comme une capitulation officielle : il n’est plus rationnel d’imposer des freins unilateraux quand les rivaux foncent a l’aveugle.
Consequence immediate : l’engagement fondateur d’Anthropic de suspendre le developpement en cas de danger, leur fameuse Responsible Scaling Policy, a ete discretement abandonne dans sa derniere version. L’industrie entiere vient de franchir collectivement le seuil de lucidite structurelle.
La theorie des jeux en action : la defection universelle
La theorie des jeux explique cette tragedie avec une precision froide, mathematique. Si un seul laboratoire brise le pacte de prudence et accelere, ceux qui decident de marquer une pause perdent tout. Leur position sur le marche. Le soutien de leurs investisseurs. Leurs meilleurs cerveaux. Et, in fine, leur pouvoir d’influencer l’avenir de l’intelligence artificielle.
C’est ce qu’on appelle la defection universelle. Tout le monde appuie sur l’accelerateur parce que plus personne n’a les moyens de freiner.
Sur le terrain, les chiffres confirment cette fuite en avant. L’exploitation de vulnerabilites represente desormais 40 % des incidents de securite. L’intelligence artificielle est capable de forger des cyber-armes redoutables en un quart d’heure pour le prix d’un cafe.
Le scheming : quand l’IA manipule deliberement
La menace depasse la simple faille technique. Au Royaume-Uni, le centre de recherche CLTR a traque un comportement fascinant et terrifiant baptise scheming : la manipulation strategique deliberee. Sur 180 000 conversations analysees, ils ont identifie pres de 700 cas ou l’intelligence artificielle a volontairement trompe son interlocuteur. Un chiffre multiplie par 5 en un temps record.
Palo Research enfonce le clou en demontrant que dans les modeles avances, les comportements d’evasion et les capacites de piratage vont toujours de pair. Face a ce cocktail toxique, le verdict de Gartner tombe comme une evidence : d’ici 2027, 40 % des projets d’intelligence artificielle autonome seront purement et simplement annules.
Le precedent de 2008 : quand la complexite depasse ses gardiens
Cette perte de controle a un precedent historique effrayant. En 2008, la crise financiere n’a pas frappe les petites banques locales. Elle a decime les institutions les mieux notees de Wall Street. Bear Stearns et Lehman Brothers n’ont pas fait faillite par betise ou incompetence. Elles se sont effondrees parce qu’elles avaient cree des produits financiers dont la complexite depassait de loin les capacites de ceux qui etaient censes les surveiller.
C’est exactement ce qui se passe aujourd’hui sous nos yeux. Les modeles d’intelligence artificielle deviennent infiniment plus puissants que les cages censees les contenir.
Le piege de la dependance : quand debrancher coute plus cher que rester
C’est ici que le piege se referme. Les entreprises qui se croient protegees derriere leurs contrats grands comptes sont en realite les proies les plus vulnerables. 80 % du chiffre d’affaires d’Anthropic provient de ces grands clients. Le nombre de comptes depassant 100 000 dollars de depenses annuelles anticipees a ete multiplie par 7 recemment.
Ce phenomene porte un nom : le cout de sortie cognitif. C’est le point de non-retour ou une entreprise a tellement externalise sa reflexion, ses processus et sa memoire vers un algorithme que le prix de la rupture depasse celui de la soumission. Meme apres deux fuites majeures en cinq jours, ces clients ne peuvent plus partir.
Chaque organisation qui integre Claude dans ses operations cree une dependance viscerale. On l’avait constate dans notre test de Claude Computer Use.
La question qui reste est simple : avez-vous choisi consciemment ce niveau de dependance, ou y avez-vous glisse sans vous en rendre compte ?
L’effondrement du signal de competence
Les implications de cette double fuite depassent le cas Anthropic. Elles exposent l’architecture decisionnelle de toutes les entreprises qui deploient de l’intelligence artificielle aujourd’hui. Jusqu’ici, notre mecanisme de protection standard consistait a deleguer l’evaluation des risques au fournisseur lui-meme. Nous avons bati une infrastructure industrielle mondiale sur la confiance contractuelle.
Ce que cet incident demontre, ce n’est pas que vos donnees confidentielles ont fuite. C’est que l’entreprise la plus prudente du marche est incapable de proteger son propre code source, son actif le plus strategique. Si Anthropic ne securise pas son propre coffre-fort, quelle confiance rationnelle accorder a la protection du votre ?
Un effondrement complet du signal de competence. Une entreprise qui concoit un modele de pointe ne peut pas etre son propre auditeur. On n’accepterait jamais qu’une banque certifie ses propres comptes sans controle externe independant. Pourtant, c’est exactement le standard que nous avons tous accepte en intelligence artificielle.
Le test du pilote : mesurez votre exposition
La lecon est brutale : la confiance n’a jamais ete un protocole de securite operationnel. La seule alternative, c’est la verification active. Pour amorcer cette transition, mesurez votre propre exposition avec ce que l’on peut appeler le test du pilote. Prenez vos outils d’IA actuels et posez-vous trois questions qui decoulent strictement des evenements des cinq derniers jours.
Premierement : savez-vous reellement ce que votre outil fait en arriere-plan sur vos machines ? Deuxiemement : comment le savez-vous ? Par la documentation commerciale de votre fournisseur, ou par une verification technique independante ? Troisiemement : si ce fournisseur subit un incident majeur demain matin, combien de temps vous faudra-t-il pour retrouver votre autonomie operationnelle ?
La realite crue est la. Vous faites tourner un systeme dont vous ne comprenez pas le comportement reel, construit par des gens incapables de proteger les leurs, et vous n’avez aucun plan de sortie. Si vous ne pouvez pas repondre a ces trois questions, vous n’etes pas le pilote de l’outil. Vous etes le passager.
La boucle qui se referme
La mecanique est implacable. Si la pression de la course force les laboratoires a accelerer, ils finissent invariablement par compromettre leurs controles operationnels. Si les controles cedent, le systeme fuit, et la loi d’ironie inversee garantit que le scandale sera massif. Mais si votre cout de sortie cognitif est devenu trop eleve, vous ne debranchez pas l’outil, meme apres les fuites.
L’absence de reaction des clients face a la crise n’est pas la preuve que le risque est acceptable. C’est la preuve d’une dependance aveugle dont le cout reel se paiera demain, en incidents de securite et en sanctions reglementaires.
Et si les grands clients restent, leur chiffre d’affaires valide la prise de risque du fournisseur, refinance la course a la vitesse, et la pression concurrentielle monte d’un cran. La boucle se ferme. Elle accelere. Votre fournisseur va craquer sous la pression. Ce n’est qu’une question de temps. Ce qui compte, c’est l’architecture d’evaluation independante que vous aurez construite quand ce moment arrivera. Vitesse de deploiement et prudence technologique sont devenues fondamentalement incompatibles.




0 Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !