Anthropic refuse le Pentagone : les deux lignes rouges qui font trembler Washington

Anthropic refuse le Pentagone — confrontation entre IA éthique et forces militaires

Article de Kami

Anthropic vient de faire quelque chose que peu d’entreprises technologiques auraient osé : dire non au Pentagone. Face aux pressions du gouvernement américain pour obtenir un accès illimité à Claude — l’intelligence artificielle d’Anthropic — l’entreprise a maintenu deux lignes rouges absolues. Pas d’armes autonomes capables de tuer sans supervision humaine. Pas de surveillance de masse des citoyens américains. Une position ferme qui a déclenché un véritable bras de fer institutionnel, avec des menaces juridiques sans précédent à la clé.

Ce conflit illustre une tension fondamentale de notre époque : jusqu’où une entreprise privée doit-elle soumettre ses technologies à l’autorité de l’État, même quand cela va à l’encontre de ses valeurs éthiques ? Et surtout, qu’est-ce que la réaction du Pentagone dit du rôle croissant de l’IA dans les stratégies militaires mondiales ? Depuis que la sécurité de Claude est au cœur de tous les débats, Anthropic n’a jamais autant été sous les projecteurs.

Le Pentagone — siège du département américain de la Défense

La demande du Pentagone : un bras de fer historique

L’affaire démarre avec une requête en apparence simple : le département américain de la Défense (DoD) souhaitait un contrat garantissant un accès « non restreint » à Claude pour « toutes fins légales ». En clair, le Pentagone réclamait un document officiel stipulant que l’armée pourrait utiliser l’IA d’Anthropic comme bon lui semble, sans garde-fous spécifiques imposés par le fabricant.

Anthropic a accepté de servir l’armée américaine — mais sous conditions. Les deux conditions en question étant précisément celles que le Pentagone refusait d’inscrire au contrat. Face au refus d’Anthropic, les autorités ont sorti l’artillerie lourde : la menace d’activer le Defense Production Act (DPA), une loi d’urgence normalement réservée aux situations de crise nationale. Concrètement, cela aurait permis au gouvernement de forcer Anthropic à livrer Claude et à en retirer les garde-fous de sécurité, sans même avoir besoin du consentement de l’entreprise.

La réponse d’Anthropic n’a pas tardé, et le ton était sans ambiguïté : « Ces menaces ne changent pas notre position. » L’entreprise a même ajouté qu’en cas de rupture du contrat, elle accompagnerait le DoD dans la transition vers un autre fournisseur, sans perturber les opérations militaires en cours. Une posture à la fois ferme et professionnelle, qui a laissé beaucoup de monde sans voix à Washington.

Ce paradoxe n’a pas échappé aux observateurs : le Pentagone qualifiait Anthropic de risque pour la sécurité nationale, tout en affirmant simultanément que Claude était si indispensable qu’il fallait y accéder via des pouvoirs d’urgence. On ne peut pas avoir les deux. Soit l’IA est dangereuse, soit elle est essentielle — pas les deux à la fois.

Les deux lignes rouges d'Anthropic — armes autonomes et surveillance de masse

Les deux lignes rouges qu’Anthropic refuse de franchir

Pour comprendre l’intransigeance d’Anthropic, il faut s’attarder sur le contenu réel des deux exigences refusées. Car loin d’être des caprices idéologiques, elles reposent sur des arguments techniques et juridiques solides.

Ligne rouge n°1 — Les armes autonomes létales. Anthropic refuse catégoriquement que Claude soit utilisé pour alimenter des systèmes d’armement capables d’identifier une cible et de l’engager sans qu’un être humain valide la décision. L’argument est à la fois technique et éthique. Les modèles de langage comme Claude sont des machines probabilistes : ils ne garantissent jamais une fiabilité à 100 %. Ils font de la correspondance de motifs, pas du jugement réel. Sur un champ de bataille réel, avec des civils, des situations ambiguës et des informations incomplètes, cet écart entre « reconnaissance de patterns » et « jugement humain » peut coûter des vies innocentes.

Il y a aussi un vide juridique béant : si une arme autonome commet ce qui serait un crime de guerre si décidé par un humain, qui est responsable ? Le programmeur ? L’entreprise qui a fourni l’IA ? Le général qui a donné l’ordre de déploiement ? Personne n’a de réponse à cette question. Anthropic a précisé qu’il n’était pas opposé aux armes autonomes par principe, mais que l’état actuel de fiabilité des IA ne permettait tout simplement pas un déploiement responsable.

Ligne rouge n°2 — La surveillance de masse. La position d’Anthropic sur ce point est nuancée mais ferme. L’entreprise soutient l’utilisation de l’IA pour des missions de renseignement extérieur légitimes et encadrées. Ce qu’elle refuse, c’est de devenir le moteur d’une surveillance automatisée et généralisée de la population américaine. La raison ? L’IA brise une hypothèse qui rendait la surveillance de masse autrefois impraticable. Historiquement, acheter des données éparpillées auprès de dizaines de courtiers différents était fastidieux et peu utile. Aujourd’hui, une IA peut prendre l’ensemble de ces données légalement achetées — localisation, habitudes de navigation, connexions sociales, opinions politiques — et construire un portrait détaillé de chaque citoyen, automatiquement, en continu, sans mandat judiciaire.

Ce n’est pas de la paranoïa : c’est une faille réelle dans le Quatrième Amendement américain, qui protège contre les perquisitions abusives mais n’a jamais anticipé ce niveau de capacité technologique. Anthropic ne veut pas être l’outil qui rend possible la surveillance d’une démocratie entière avant que le système juridique ait eu le temps de s’adapter.

La Constitution Claude — cadre éthique et hiérarchie de valeurs de l'IA Anthropic

La Constitution Claude : un document mal compris et attaqué à tort

Au cœur des critiques contre Anthropic se trouve un malentendu fondamental sur ce qu’est la « Constitution Claude ». Ce document — qui a été qualifié de manière absurde de « plan pour imposer les lois d’entreprise aux Américains » par certains responsables — est en réalité quelque chose de beaucoup plus prosaïque et de beaucoup plus essentiel.

La Constitution Claude est un cadre de valeurs qui définit comment l’IA doit penser, agir et résoudre des arbitrages éthiques. Elle articule quatre niveaux de priorité hiérarchisés. En premier lieu, la sécurité générale : ne pas compromettre la supervision humaine appropriée de l’IA. Ensuite, l’éthique : avoir de bonnes valeurs, être honnête, éviter tout comportement nuisible. Puis la conformité aux directives d’Anthropic. Et enfin, l’utilité réelle : apporter une vraie valeur aux utilisateurs plutôt que des réponses vides ou évasives. La sécurité et l’éthique sont explicitement placées au-dessus de l’utilité. Claude doit refuser ou réorienter des requêtes quand y répondre entrerait en conflit avec ces priorités supérieures.

C’est précisément ce qui fait la qualité de Claude. La cohérence et la fiabilité de Claude ne sont pas des accidents — elles sont le résultat direct de ce cadre éthique explicite. Comparer cela à une tentative d’imposition idéologique relève soit d’une ignorance totale du sujet, soit d’une mauvaise foi délibérée.

Critiques politiques infondées contre Anthropic sur les réseaux sociaux

Elon Musk et Emil Michael : des critiques politiques infondées

Le conflit Anthropic-Pentagone a rapidement débordé du cadre institutionnel pour devenir un sujet de bataille politique sur les réseaux sociaux. Et les attaques les plus virulentes sont venues de personnalités dont on aurait pu attendre plus de rigueur factuelle.

Emil Michael, responsable au sein du DoD, a publié un tweet affirmant qu’Anthropic avait « sa propre constitution » — non pas les valeurs des États-Unis, mais ses propres lois d’entreprise qu’elle chercherait à imposer aux Américains. Le tweet a rapidement reçu une note de contexte communautaire correctrice, précisant que la Constitution Claude est un simple ensemble de principes définissant le comportement du chatbot — comparable au Model Spec d’OpenAI — et n’a absolument rien à voir avec une velléité d’imposition de valeurs à qui que ce soit. Une recherche de deux minutes aurait suffi à éviter cette méprise.

Elon Musk, de son côté, est allé jusqu’à affirmer qu’Anthropic « détestait la civilisation occidentale » — une déclaration difficile à prendre au sérieux au vu des faits. La position d’Anthropic n’est pas anti-américaine : elle est précisément fondée sur la protection des valeurs constitutionnelles américaines, notamment le Quatrième Amendement. La vraie question est de savoir si Musk, dont la propre entreprise d’IA xAI est en concurrence directe avec Anthropic, a un intérêt objectif dans cette affaire. Les ambitions de Grok sur le marché de l’IA ne sont pas étrangères à cet enthousiasme à critiquer les concurrents.

Ce qu’il est intéressant de noter, c’est que le Pentagone, en insistant autant pour obtenir l’accès à Claude malgré l’existence d’autres modèles d’IA moins « contraignants », a involontairement fait la meilleure publicité possible à Anthropic. Si Claude était un outil médiocre, personne ne se battrait pour y accéder à tout prix.

Course à l'armement IA — le défi géopolitique sino-américain

La menace chinoise : le vrai dilemme derrière la controverse

Derrière la polémique médiatique se cache une question stratégique beaucoup plus profonde et légitime : pendant qu’Anthropic maintient ses garde-fous éthiques, la Chine, elle, n’hésitera pas à déployer des systèmes d’IA autonomes dans des contextes militaires sans aucune restriction de ce type.

C’est un argument sérieux que certains observateurs ont mis en avant, et il mérite d’être pris au sérieux. Une course aux armements IA dans laquelle un camp s’impose des contraintes éthiques et l’autre non crée une asymétrie potentiellement dangereuse. La distillation de modèles — c’est-à-dire la possibilité de reproduire les capacités d’un modèle à partir de ses sorties observées — signifie que les nations rivales peuvent s’inspirer des avancées américaines même sans accès direct au code source.

Cependant, il faut aussi envisager l’autre côté de l’équation. Les États-Unis ont construit leur leadership mondial en partie sur une image de puissance respectant certaines valeurs. Déployer des systèmes d’armes létaux autonomes non fiables, avec le risque de bavures catastrophiques et sans responsabilité juridique claire, pourrait coûter bien plus cher diplomatiquement et moralement que l’avantage tactique gagné. La vraie réponse à la menace de la course aux armements IA n’est peut-être pas d’abandonner les garde-fous, mais de travailler plus vite à rendre les systèmes suffisamment fiables pour les déployer de manière responsable — ce qu’Anthropic a d’ailleurs proposé de faire avec le Pentagone, avant que ce dernier refuse.

Dans ce contexte, la position d’Anthropic ressemble moins à de l’obstruction qu’à une invitation à résoudre le vrai problème plutôt que d’en ignorer les risques. Si ce conflit se termine par un retrait du DoD et une victoire juridique ou morale d’Anthropic — ce que plusieurs experts anticipent — ce sera une démonstration unique qu’une entreprise d’IA peut tenir bon sur ses valeurs même face à la pression d’un gouvernement, et en ressortir plus forte.