GPT-6 repoussé, data centers en orbite et IA contre le cancer : le point sur l’actu IA

GPT-6 data centers en orbite IA contre le cancer résumé actualités intelligence artificielle

Article de Kami

OpenAI vient de confirmer que ChatGPT-6 ne sortira pas d’ici la fin de l’année, et cette annonce change la donne sur le calendrier de l’intelligence artificielle. Combinée à plusieurs développements majeurs survenus cette semaine — data centers en orbite terrestre, découvertes médicales par IA, démocratisation du calcul — on assiste à une transformation profonde du secteur.

De GPT-6 qui mise sur la mémoire plutôt que sur la puissance brute, à Jeff Bezos qui prépare des méga-clusters de calcul en orbite, en passant par une IA de Google qui génère une hypothèse validante contre le cancer : voici le point complet sur une semaine particulièrement dense en actualités IA.

Cerveau numérique avec circuits de mémoire persistante pour GPT-6

ChatGPT-6 : la mémoire persistante plutôt que la puissance brute

Il y a quelques semaines, un analyste financier d’Evercore avait affirmé sur CNBC que ChatGPT-6 arriverait avant 2026. Cette rumeur a enflammé les réseaux sociaux au point qu’un employé d’OpenAI utilisant le pseudonyme RON a dû démentir l’information à plusieurs reprises.

Depuis, Sam Altman a clarifié la situation dans une interview récente à San Francisco. L’équipe travaille effectivement sur GPT-6, mais avec une stratégie complètement différente des précédents modèles. Le prochain modèle se focalisera sur la mémoire persistante et l’adaptation aux utilisateurs, plutôt que sur l’amélioration de la puissance brute.

Altman a été explicite : GPT-6 arrivera plus vite que l’écart entre GPT-4 et GPT-5, probablement au début de 2026. Mais ce sera un modèle fondamentalement différent. On parle d’une intelligence qui vous connaît, qui s’adapte à vos préférences, à vos routines. Une IA qui ne se contentera plus de répondre mais qui va anticiper.

Le problème actuel, qu’Altman admet ouvertement, c’est qu’OpenAI manque cruellement de capacité de calcul pour déployer des modèles déjà prêts. L’entreprise possède les modèles mais pas assez de serveurs pour les faire tourner à l’échelle nécessaire. Pendant que le monde spéculait sur GPT-6, OpenAI réglait en fait des problèmes d’infrastructure bien plus terre à terre.

Data center futuriste en orbite autour de la Terre avec panneaux solaires

Jeff Bezos veut construire des data centers en orbite

Et justement, parlons d’infrastructures. Lors de l’Italian Tech Week à Turin, Jeff Bezos a lâché une bombe : dans les 10 à 20 prochaines années, des data centers géants d’une puissance d’1 GW tourneront en orbite autour de la Terre. Pour situer l’échelle, 1 GW équivaut à une centrale nucléaire entière.

La logique du fondateur d’Amazon est implacable. Dans l’espace, l’accès à l’énergie solaire est constant : pas de nuages, pas de pluie, pas de nuit. L’énergie y est littéralement infinie une fois les installations en place. Et avec les besoins énergétiques de l’IA qui explosent, cette solution commence à faire sens économiquement.

Bezos ne fantasme pas. Comme pour l’informatique quantique, les choses avancent concrètement. Blue Origin a déjà lancé sa plateforme Blue Ring en janvier, conçue spécifiquement pour offrir des capacités de calcul en orbite. Le projet Oasis avec le Luxembourg vise à cartographier les ressources lunaires pour soutenir ces infrastructures spatiales. AWS teste déjà des systèmes de calcul en orbite, et Axiom Space a envoyé une unité de calcul vers l’ISS en août dernier.

Eric Schmidt, ancien PDG de Google, a même racheté Relativity Space pour poursuivre exactement cette vision. Les défis restent énormes — latence, maintenance et refroidissement en tête — mais la direction est prise. L’espace pourrait bien devenir le lieu naturel où entraîner les futurs modèles d’IA.

Cellules cancéreuses ciblées par un système immunitaire guidé par IA

Google et Yale : une IA qui découvre de nouvelles thérapies contre le cancer

C’est probablement la nouvelle la plus porteuse d’espoir de la semaine. Google et Yale ont annoncé que leur modèle C2S-Scale, basé sur la famille des modèles Gemma, a généré une hypothèse complètement nouvelle sur le comportement cellulaire du cancer. Hypothèse qui a ensuite été validée expérimentalement dans des cellules vivantes.

C2S-Scale est un modèle de 27 milliards de paramètres conçu pour comprendre le langage des cellules individuelles. L’un des plus gros problèmes en immunothérapie du cancer, ce sont les tumeurs dites « froides », invisibles au système immunitaire. L’IA a identifié une combinaison médicamenteuse (silmitasertib combiné à l’interféron à faible dose) capable de booster la présentation d’antigènes, rendant les tumeurs froides plus visibles au système immunitaire — avec une augmentation d’environ 50 %.

Sundar Pichai, le PDG de Google, a qualifié cette avancée d’étape majeure pour l’IA dans la science. Les équipes de Yale explorent déjà le mécanisme découvert et testent d’autres prédictions générées par le système. Le modèle et ses ressources sont disponibles publiquement sur Hugging Face et GitHub.

Dans la foulée, Google a aussi annoncé DeepSomatic, un autre modèle d’apprentissage automatique qui identifie les variants génétiques dans les cellules cancéreuses avec une précision supérieure aux méthodes actuelles. Google continue d’accélérer sur l’IA appliquée à la santé, et ces modèles ne sont limités que par la quantité de puissance de calcul disponible — d’où la course aux méga-clusters, sur Terre comme en orbite.

Mini PC superordinateur DGX Spark de Nvidia sur un bureau

Le DGX Spark de Nvidia démocratise la puissance de calcul IA

Nvidia a officiellement commencé à livrer le DGX Spark, et Jensen Huang en personne a livré les premières unités. On a vu des images du PDG de Nvidia arrivant chez Elon Musk à Starbase au Texas, puis chez OpenAI où Sam Altman et Greg Brockman ont reçu leur exemplaire.

Le clin d’œil historique est délibéré : en 2016, Jensen Huang avait déjà livré le tout premier DGX-1 à OpenAI, contribuant à lancer la révolution de l’IA. Presque 10 ans plus tard, il réédite le geste avec le DGX Spark, le plus petit superordinateur IA au monde.

Ce boîtier de la taille d’un mini PC embarque 1 petaflop de puissance de calcul IA et 128 Go de mémoire unifiée. Il peut exécuter l’inférence sur des modèles jusqu’à 200 milliards de paramètres et affiner des modèles jusqu’à 70 milliards localement. On peut même connecter deux DGX Spark ensemble pour doubler la mémoire et les ressources de calcul.

Annoncé à 3 999 dollars avec seulement 240 W de consommation, il a été classé par le Time Magazine parmi les meilleures inventions de 2025. C’est cinq fois la puissance de calcul du DGX-1 original dans un format qui tient sur un bureau. Cette puissance était autrefois réservée à ceux qui avaient accès à des clusters cloud coûteux — Nvidia continue de redéfinir l’accessibilité du calcul IA.

Interface de connexion ChatGPT intégrée sur de multiples sites web

« Se connecter avec ChatGPT » : OpenAI veut devenir le nouveau Google

Autre développement stratégique majeur : OpenAI fait actuellement le tour des grandes entreprises pour leur proposer un bouton « Se connecter avec ChatGPT », similaire à ce qu’on connaît avec Google ou Apple. Selon The Information, les entreprises qui acceptent pourraient transférer le coût d’utilisation des modèles directement à leurs clients.

Aujourd’hui, quand une application intègre ChatGPT, c’est le développeur qui paye les frais d’inférence à chaque interaction. Avec cette nouvelle option, un utilisateur qui possède un compte ChatGPT Pro pourrait se connecter à l’application tierce avec son propre abonnement. L’éditeur n’aurait plus à payer, et l’utilisateur obtiendrait potentiellement un modèle de meilleure qualité.

OpenAI a déjà publié une page web demandant aux développeurs d’exprimer leur intérêt. Le formulaire cible des entreprises allant de moins de 1 000 utilisateurs hebdomadaires à plus de 100 millions. Avec environ 600 millions d’utilisateurs actifs mensuels, ChatGPT a la base nécessaire pour rendre cette fonctionnalité viable et devenir un véritable système de connexion universel. Les ambitions financières d’OpenAI ne faiblissent décidément pas.

Compétences modulaires Claude Skills d'Anthropic sous forme de pièces de puzzle

Claude Skills d’Anthropic : des compétences à la demande pour l’IA

Anthropic vient de dévoiler Claude Skills, une fonctionnalité qui permet de charger à la demande des compétences spécialisées. Le concept : des dossiers contenant des instructions, du code et des ressources que Claude peut charger uniquement quand c’est pertinent.

Par exemple, un guide de marque avec des polices spécifiques, une charte graphique et un ton de communication précis peut devenir un « skill ». Lorsqu’on demande à Claude de créer un support de marque, il charge automatiquement toutes les instructions pertinentes. Création de feuilles Excel, génération de PowerPoint avec un template entreprise, rédaction de rapports selon les normes internes : tout y passe.

Les skills peuvent également contenir du code exécutable pour les tâches nécessitant une précision absolue. Plusieurs skills se combinent automatiquement : pour une présentation investisseur, Claude pourrait simultanément invoquer votre skill de charte graphique, d’analyse financière et de mise en page. Après Cowork et Opus 4.6, Anthropic enfonce le clou sur l’IA professionnelle.

L’aspect le plus intéressant : ces skills ne sont pas exclusifs à Claude. Anthropic a fait de ce format un standard ouvert, utilisable avec d’autres modèles comme Gemini. Certains experts estiment que cette approche pourrait déclencher une explosion d’innovation dépassant la ruée récente vers les MCP (Model Context Protocol).

Visualisation abstraite de la mesure de l'intelligence artificielle générale AGI

Vers une définition mesurable de l’intelligence artificielle générale

Pour finir, un papier de recherche signé Dan Hendrycks et une équipe incluant Yoshua Bengio et Eric Schmidt propose une définition testable et quantifiable de l’AGI (intelligence artificielle générale). Jusqu’ici, le terme restait une cible mouvante.

Leur définition : une IA qui peut égaler ou dépasser la polyvalence cognitive ainsi que la compétence d’un adulte bien éduqué. Pour mesurer cela, ils évaluent plusieurs dimensions de l’intelligence dérivées de la théorie CHC (Cattell-Horn-Carroll), le modèle le plus empiriquement validé de l’intelligence humaine : connaissances générales, raisonnement, mémoire de travail, stockage et récupération à long terme, capacités visuelles et auditives, vitesse de réflexion.

Selon leur cadre, GPT-4 était à 27 % du chemin vers l’AGI, et GPT-5 en est à 58 %. Un bond massif, mais avec une limite fondamentale : sans mémoire persistante, un modèle obtient 0 % sur le stockage et la récupération de mémoire. S’appuyer sur des fenêtres de contexte massives reste une solution de contournement.

Ce constat rejoint directement ce que Sam Altman annonce pour GPT-6 : la mémoire persistante sera la clé de tout. Sans elle, selon ce papier, on ne peut tout simplement pas prétendre à l’AGI. L’IA ne ralentit pas, elle se transforme : plus spécialisée, plus intégrée, plus puissante. La question n’est plus de savoir si l’IA va transformer votre travail, mais comment vous allez vous adapter.