
Claude Code vient d’ouvrir à tous les abonnés la fenêtre de contexte de 1 million de tokens dans Opus 4.6. Une annonce présentée comme révolutionnaire — mais qu’est-ce que ça change concrètement au quotidien ? Un développeur a poussé l’outil dans ses retranchements en chargeant 27 articles académiques d’un économiste Prix Nobel dans un seul contexte. Voici ce que ce test révèle vraiment sur les capacités et les limites de cette nouvelle fonctionnalité.
La fenêtre de contexte 1 million de tokens : ce qui change pour tout le monde

Jusqu’ici, seuls certains comptes d’entreprise bénéficiaient de la fenêtre de contexte étendue. Désormais, les abonnés standard de Claude Code peuvent l’utiliser avec Opus 4.6. Le message affiché à la connexion est sans ambiguïté : « Opus passe à 1 million de contexte par défaut. Cinq fois plus d’espace, même prix. »
La partie « même prix » mérite d’être soulignée. Avec les modèles précédents — et avec certains concurrents — dépasser le seuil standard fait exploser les coûts. Le cas de ChatGPT 5.4 dans Codex est parlant : une fenêtre de 1 million de tokens est disponible, mais en mode expérimental. Au-delà des 272 000 tokens habituels, chaque token compte double contre votre quota. En mode rapide, c’est quatre fois le tarif normal. Pour le coût du million de tokens, la politique tarifaire d’Anthropic change donc le calcul économique de nombreux cas d’usage.
Du côté des performances, Anthropic avance que la dégradation de qualité au-delà de 200 000 tokens est plus faible que chez les modèles concurrents. Les graphiques publiés montrent que Claude Sonnet 4.6 et Opus maintiennent un taux de récupération en contexte long supérieur à GPT-5.4. Quelques témoignages d’entreprises ayant eu accès anticipé illustrent les cas d’usage concrets : un ingénieur chez Ramp explique que Claude Code peut désormais brûler 100 000 tokens à chercher dans des sources externes — journaux d’erreurs, bases de données, dépôts de code — sans avoir à gérer manuellement la fenêtre. Une startup juridique décrit la possibilité de faire des recoupements sur une déposition de 400 pages ou un dossier complet.
Test pratique : analyser 27 articles d’un économiste Nobel avec Claude Code

Pour voir ce que ça donne en pratique, le test retenu est ambitieux : demander à Claude Code de télécharger et d’analyser les articles académiques les plus récents de Daron Acemoglu, économiste au MIT, co-lauréat du Prix Nobel d’économie 2024. Connu pour ses travaux sur les institutions et la croissance, Acemoglu est aussi l’une des voix les plus mesurées et critiques sur les implications de l’IA dans le monde du travail.
La consigne : récupérer au minimum 15 publications récentes, sélectionner les plus pertinentes sur l’économie de l’IA, et produire une analyse intégrée sous forme de document LaTeX compilé en PDF. Claude Code sélectionne les articles les plus ciblés, commence à les lire, et affiche au bout d’un moment un premier état des lieux : 97 500 tokens utilisés après les premières lectures, puis 156 000 tokens après avoir parcouru 12 articles — avec encore 947 000 tokens disponibles selon l’affichage de l’outil.
La seconde phase du test est plus exigeante : doubler le corpus, lire chaque PDF en intégralité, et réécrire l’analyse avec ce nouveau matériel. Claude Code finit par traiter 27 articles et annonce avoir extrait 600 000 mots de texte brut depuis les PDFs — soit environ 800 000 tokens estimés. En théorie, avec les 200 000 tokens déjà consommés, on frôle le million. En pratique, ce n’est pas ce qui se passe.
Ce que le test révèle : autocompaction, limites PDF et comportement réel

Première surprise : l’autocompaction silencieuse. Sans que l’utilisateur le demande, Claude Code commence à compresser le contexte pour économiser de l’espace. Résultat concret : au lieu des 800 000+ tokens attendus, on ne dépasse que légèrement les 200 000. L’outil le reconnaît lui-même quand on l’interroge : il était en train d’autocompacter en arrière-plan tout au long de la session.
Il y a aussi une contrainte native sur les PDFs : 20 pages maximum par requête. Sur des articles académiques de 50 à 80 pages, cela signifie que Claude Code n’en lit souvent qu’une partie. L’outil le précise d’ailleurs dans son rapport de session : « l’analyse est principalement fondée sur les 11 articles lus intégralement ». Les autres ont été parcourus partiellement.
Pour contourner ces limites, le test explore une alternative : extraire d’abord tout le texte des PDFs dans des fichiers plats, puis demander à Claude Code de travailler sur ces versions texte plutôt que sur les PDFs directement. L’approche fonctionne — on atteint 462 000 tokens effectifs — mais Claude Code commence alors à émettre des avertissements du type « lisez uniquement les sections dont vous avez besoin » et résiste à réécrire l’analyse, la jugeant déjà satisfaisante. Le résultat final est une analyse de 23 pages, 27% plus courte que la première version mais plus précise selon le modèle, avec des notations mathématiques compilées et des références croisées entre les articles.
Quel usage concret pour ce 1M context window ?

Le test avec les PDFs académiques met en lumière quelque chose d’important : le 1 million de tokens est bien réel, mais il ne s’exploite pas de façon transparente. Claude Code ne va pas spontanément remplir cet espace — il tend à le gérer de façon économe, voire à compacter automatiquement avant d’être poussé dans ses retranchements.
Pour les développeurs travaillant sur de grands dépôts de code, la situation est différente et bien plus favorable. Les fichiers de code sont individuellement plus légers que des articles académiques, et Claude Code est conçu pour naviguer dans un codebase, pas pour ingérer des PDFs en masse. Dans ce cas d’usage — explorer plusieurs modules en parallèle, croiser des fichiers de configuration avec du code source, analyser des logs volumineux — le 1 million de tokens devient vraiment utile sans avoir à forcer l’outil. C’est d’ailleurs ce qu’illustrent les témoignages des entreprises qui avaient accès anticipé. La sécurité de Claude Code dans ce type d’usage sur des bases de code sensibles reste par ailleurs un sujet à surveiller.
Pour les usages académiques ou documentaires — PDF lourds, rapports, dépositions, littérature scientifique — la meilleure approche reste un pré-traitement : extraire le texte brut en amont, puis laisser Claude Code travailler sur ces fichiers texte. Créer une routine dédiée à la lecture de PDFs, qui gère le découpage et la compilation automatiquement, est sans doute la prochaine étape logique pour maximiser ce 1 million de contexte. En attendant, l’outil est déjà capable de produire une revue de littérature sur 27 articles académiques en une session — même si le chemin pour y arriver demande quelques ajustements manuels.




0 Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !