Le 5 février 2026, OpenAI et Anthropic ont dégainé GPT‑5.3‑Codex et Claude Opus 4.6. Une semaine plus tard, Zhipu AI a répliqué avec GLM‑5, open-source sous licence MIT, annoncé à 744B paramètres et entraîné sur hardware Huawei. En quelques jours, la “guerre des modèles” a changé de terrain.
Le match ne se joue plus seulement sur la qualité de texte. Il se joue sur la vitesse (jusqu’à 25–30+ tok/s), le contexte long (jusqu’à 1M tokens), et la capacité à exécuter des tâches agentiques de bout en bout. Les benchmarks divergent, mais les arbitrages produit, coût et déploiement deviennent très concrets.
Vous repartirez avec une grille de lecture actionnable pour comparer ces modèles, comprendre leurs compromis, et choisir une trajectoire viable entre API propriétaires et self-hosting open-source.
Février 2026 : pourquoi cette “guerre des modèles” change la donne
Trois annonces, trois stratégies produit (5 février vs 11–13 février)
Le 5 février 2026, OpenAI lance GPT‑5.3‑Codex. Anthropic sort Claude Opus 4.6 le même jour. Le message est clair : le “coding” redevient une catégorie stratégique, avec des modèles conçus pour produire, corriger et exécuter du code en continu. Entre le 11 et le 13 février, Zhipu AI publie GLM‑5 en open-source, sous licence MIT. L’effet est différent. Ce n’est pas seulement une annonce produit, c’est une annonce d’écosystème.
Les deux premiers misent sur une expérience clé en main. Vous payez une API et vous allez vite. GLM‑5 mise sur la réplicabilité : poids disponibles, déploiement possible chez vous, et une chaîne matérielle revendiquée comme indépendante des puces américaines via un entraînement sur Huawei Ascend. Pour une équipe qui doit arbitrer entre souveraineté, coût et vitesse de mise en production, la comparaison GPT-5.3 Codex Claude Opus 4.6 GLM-5 ne se réduit pas à un tableau de scores.
Le nouveau terrain de jeu : coding intensif, agents, contexte long et débit
Le centre de gravité se déplace vers l’agentique. Vous ne cherchez plus un modèle qui “répond”, mais un modèle qui enchaîne des actions : lire une base de code, proposer un patch, lancer des tests, itérer, documenter. À ce niveau, le débit devient un levier de productivité. Quand un modèle sort 25–30+ tokens/s, votre boucle “éditer → tester → corriger” change d’échelle.
Le contexte long devient l’autre champ de bataille. Claude Opus 4.6 pousse l’idée jusqu’à 1M tokens. C’est la promesse de travailler sur un monorepo, un historique d’incidents, et une doc produit, sans découper agressivement. GLM‑5 vise 200K, mais compense par un output très long annoncé jusqu’à 128K, utile pour générer des modifications multi-fichiers sans morceler.
Ce qui est réellement comparable… et ce qui ne l’est pas (benchmarks, maturité, fenêtre temporelle)
Les benchmarks donnent une direction, pas un verdict universel. Les dates de sortie sont proches, mais la maturité opérationnelle ne l’est pas forcément. Un modèle peut dominer un score et perdre du temps en intégration, en observabilité, en gestion des outils, ou en disponibilité régionale. GLM‑5 apporte une rupture d’accès, mais son écosystème reste plus jeune. À l’inverse, les modèles propriétaires peuvent limiter votre contrôle fin sur l’inférence et la gouvernance.
L’arbitrage doit donc se faire sur des tâches “réelles” mesurables : temps pour corriger un bug avec tests, taux de réussite sur PR, coût par tâche, stabilité sur une semaine de trafic. C’est là que la “guerre des modèles” devient une décision de produit, pas une discussion de lab.
Profil technique : ce que chaque modèle optimise (et ce que ça implique)
GPT-5.3-Codex : vitesse d’exécution et boucle de dev “assistée” (25% plus rapide, 25–30+ tok/s)
GPT‑5.3‑Codex est construit pour réduire le temps entre intention et patch. La promesse la plus concrète est la vitesse : environ 25% plus rapide que GPT‑5.2‑Codex, avec un débit souvent cité à 25–30+ tokens/s. En pratique, cela agit sur un point précis : la latence d’itération. Vous obtenez plus de cycles d’essais dans la même heure de dev.
Exemple concret. Vous avez un service Node qui casse sur une migration Prisma. Vous collez le stacktrace, deux fichiers de schéma, et le test qui échoue. GPT‑5.3‑Codex propose un patch, explique le risque de rupture, et régénère un test. La valeur n’est pas “l’explication”. C’est le nombre d’allers-retours possibles avant que votre développeur ne perde le fil. Sur une équipe, ce gain se transforme en vélocité, surtout quand les tickets sont petits mais nombreux.
La contrepartie est classique : vous dépendez d’une API et de ses contraintes. Si votre contexte doit inclure des artefacts sensibles, vous devez cadrer la conformité, la rétention, et la traçabilité. GPT‑5.3‑Codex est donc souvent un choix “time-to-value” pour des équipes qui privilégient l’exécution rapide et l’intégration outillée.
Claude Opus 4.6 : contexte massif (jusqu’à 1M tokens) et coordination multi-agents, avec mode Fast (jusqu’à 2.5x)
Claude Opus 4.6 pousse un autre bouton : l’ampleur du contexte. Jusqu’à 1M tokens annoncés, ce n’est pas un confort. C’est une autre manière de travailler. Vous pouvez injecter une doc complète, des discussions de design, des logs d’incident, et un sous-ensemble conséquent de code, puis demander une modification qui respecte le tout. Pour des organisations où la connaissance est dispersée, c’est un avantage immédiat.
La couche “multi-agents” vise la coordination. Vous découpez un objectif en rôles : un agent lit l’architecture, un autre propose le plan de migration, un autre écrit les tests. Le modèle n’est pas juste un générateur, il devient un orchestrateur. Le mode Fast, annoncé jusqu’à 2.5x plus rapide, sert à garder cette coordination fluide quand vous multipliez les appels.
Exemple. Refonte d’un système de pricing. Vous chargez la spec, l’historique des décisions, et les contraintes légales. Opus 4.6 peut produire un diff qui colle à la spec et générer une note de release cohérente. Là où un modèle plus “rapide” peut exceller sur un patch isolé, Opus 4.6 vise la cohérence sur un univers documentaire massif.
GLM-5 : open-source MoE (744B/40–44B actifs), 200K contexte, 128K output, contrainte compute (8× A100) et cadence (17–19 tok/s)
GLM‑5 change la conversation parce qu’il est open-source, sous licence MIT. Son profil technique est impressionnant sur le papier : 744B paramètres totaux, avec 40–44B actifs en MoE, 200K de contexte, jusqu’à 128K de sortie. L’entraînement annoncé sur un cluster Huawei (Ascend 910B) envoie un signal d’indépendance matérielle. Pour certains groupes, c’est un critère stratégique au même niveau que la performance.
Mais le modèle a un prix opérationnel. On parle d’une inférence exigeante, citée comme nécessitant jusqu’à 8× A100 80GB dans certaines configurations. Et sa vitesse est plus basse, autour de 17–19 tokens/s. Ce n’est pas un défaut abstrait. C’est un coût direct sur les workflows agentiques qui enchaînent des dizaines d’appels.
Exemple réaliste. Vous voulez un agent de dev interne qui corrige des tests flaky sur un repo Python. Avec GLM‑5, vous pouvez garder le code en interne, maîtriser les logs et la conformité, et personnaliser les outils. Mais vous devez provisionner le compute, mettre en place du monitoring, gérer les versions, et accepter une cadence potentiellement plus lente. GLM‑5 est souvent le bon pari quand la gouvernance et la maîtrise priment sur le “plug-and-play”.
Performances “coding & agentique” : lire les scores sans se tromper
SWE-Bench Verified & Terminal-Bench 2.0 : qui domine quoi (GLM-5 77.8% SWE-Bench ; GPT-5.3 77.3% Terminal-Bench ; GLM-5 56.2% Terminal-Bench)
Les chiffres marquent, mais ils mesurent des choses différentes. GLM‑5 affiche 77.8% sur SWE‑Bench Verified, un signal fort sur des correctifs de code évalués de façon stricte. En face, GPT‑5.3‑Codex est crédité de 77.3% sur Terminal‑Bench 2.0, un benchmark plus “agentique” qui simule des interactions terminal, donc des tâches de bout en bout.
Le delta le plus utile à regarder est l’écart de GLM‑5 sur Terminal‑Bench (56.2%) par rapport aux propriétaires. Cela dit une chose simple : être excellent en “patching” n’implique pas automatiquement d’être excellent en exécution orchestrée avec outils, commandes, et boucles de feedback. Ce point compte si votre objectif est un agent autonome qui manipule repo, CI, et scripts.
Vous devez aussi garder en tête l’absence de consensus universel. Les setups varient, les outils autorisés aussi, et la fenêtre temporelle est courte après sortie. Sur février 2026, le plus robuste est de traiter ces scores comme un tri initial, puis de valider sur vos tâches.
Vitesse vs réussite de tâche : quand le tok/s devient un KPI business (latence, itérations, coût/heure dev)
Le tok/s n’est pas un vanity metric quand vous industrialisez. Dans un workflow agentique, la plupart des coûts sont dans les boucles : “écrire → exécuter → lire erreur → corriger”. Un modèle plus rapide peut réduire la durée de cycle même si sa précision brute est légèrement inférieure. Inversement, un modèle plus lent mais plus juste peut gagner si chaque itération coûte cher en contexte et en exécution.
Prenez un cas d’usage de support engineering : reproduction d’un bug client à partir de logs, puis génération d’un patch minimal et d’un test de non-régression. Si votre équipe traite 30 tickets par semaine, une économie de 5 minutes par ticket devient un levier net. À ce niveau, GPT‑5.3‑Codex est naturellement bien placé, parce qu’il accélère les micro-itérations.
Mais dès que la tâche requiert de “tenir” une base de connaissance complète, la vitesse ne suffit plus. Vous pouvez gagner du temps en évitant de recharger du contexte à chaque appel, ce qui favorise les modèles à long contexte. Le KPI business devient alors “coût par tâche réussie”, pas “coût par million de tokens”.
Long contexte et output long : avantage produit (Opus 1M tokens, GLM-5 128K output) vs risques (dérive, coût, observabilité)
Le long contexte n’est pas gratuit. Plus vous injectez, plus vous augmentez le coût, le temps de traitement, et le risque de dérive. L’observabilité devient aussi plus difficile : quand un agent se trompe, vous devez comprendre quelle portion du contexte l’a influencé. Avec 1M tokens, la traçabilité exige des outils de capture, de versioning de prompts, et de “context hygiene”.
L’output long est un autre couteau à double tranchant. GLM‑5 annonce jusqu’à 128K de sortie, ce qui permet des changements multi-fichiers massifs et des docs générées en une fois. C’est puissant pour des refactors structurés. C’est aussi risqué si vous laissez passer un diff énorme sans garde-fous. Vous devez coupler cela à des tests, du lint, et des contrôles automatiques.
Un exemple simple : migration d’une librairie interne utilisée par 40 services. Un modèle à long output peut générer 200 modifications cohérentes. La bonne pratique n’est pas de tout merger. C’est de segmenter par packages, de faire passer la CI, et d’imposer des gates. Les modèles de février 2026 rendent ce type d’opération accessible, mais seulement si votre pipeline de validation est solide.
Décision pour une équipe produit/marketing : propriétaire vs open-source (Huawei-only) en pratique
Coûts et déploiement : API “prête à l’emploi” vs self-hosting (compute, MLOps, sécurité, conformité)
Le choix le plus structurant n’est pas “quel est le meilleur modèle”, c’est “où vit le modèle”. Les API propriétaires réduisent le coût initial. Vous branchez, vous mesurez, vous itérez. C’est idéal pour lancer un copilote interne, un agent de QA, ou un pipeline de génération de contenu technique sans mobiliser une équipe infra.
Le self-hosting de GLM‑5 inverse l’équation. Vous payez en compute, en MLOps, et en responsabilités. Provisionner l’inférence, gérer les pics, patcher les dépendances, instrumenter les prompts, sécuriser les logs. Le gain est ailleurs : contrôle des données, personnalisation, et capacité à opérer dans des environnements contraints.
Exemple côté marketing produit. Vous voulez un agent qui lit les PR et génère automatiquement des release notes et des pages changelog. En API, vous allez vite, mais vous devez cadrer ce qui sort du périmètre. En self-hosting, vous pouvez alimenter l’agent avec l’historique complet, y compris des discussions sensibles, et garder le tout en interne. Le bon arbitrage dépend de votre tolérance au risque et de votre capacité d’exploitation.
Indépendance techno et géopolitique : GLM-5 (MIT, entraîné sur Ascend 910B) face aux écosystèmes US
GLM‑5 n’est pas seulement “open-source”. Il est présenté comme entraîné sur hardware Huawei, avec un récit d’indépendance vis-à-vis des chaînes d’approvisionnement US. Pour des organisations exposées à des contraintes réglementaires, à des restrictions d’export, ou à des politiques internes de souveraineté, c’est un élément décisionnel.
À l’inverse, les modèles propriétaires occidentaux apportent un avantage d’écosystème. Vous bénéficiez d’intégrations, de retours terrain, et d’une cadence d’amélioration continue. La dépendance fournisseur existe, mais elle s’accompagne d’un support et d’une stabilité d’usage souvent supérieurs, surtout dans les premiers mois.
La mise en perspective est simple : GLM‑5 vous donne un droit de copie et d’exploitation large. GPT‑5.3‑Codex et Opus 4.6 vous donnent un avantage de plateforme. En 2026, la stratégie IA d’une entreprise se joue de plus en plus sur cette ligne.
Choisir selon les cas d’usage : agent de dev, support engineering, analyse de codebase géante, génération multi-fichiers (et où l’écosystème pèse plus que le benchmark)
Les cas d’usage tranchent mieux que les scores. Pour un agent de dev qui doit itérer vite sur des bugs, GPT‑5.3‑Codex est un candidat naturel, parce que la vitesse soutient la boucle d’exécution. Pour des tâches qui exigent de “tenir” un contexte énorme, Claude Opus 4.6 prend l’avantage, surtout quand la cohérence documentaire est critique.
GLM‑5 est souvent le meilleur choix quand votre priorité est de garder la donnée et la logique en interne, ou de bâtir un produit embarqué dans un environnement contrôlé. Il devient aussi un levier de négociation : la possibilité crédible de self-hoster change votre position vis-à-vis des fournisseurs.
Exemple de décision rapide. Une équipe veut automatiser l’analyse d’un monorepo, produire des propositions de refactor, puis ouvrir des PR avec tests. Si l’objectif est d’être opérationnel en deux semaines, vous partez sur une API et vous instrumentez. Si l’objectif est de bâtir un avantage défendable sur 12 mois avec données internes, vous investissez dans un socle self-hosted et vous acceptez une montée en charge plus lente. Le meilleur modèle IA pour coding agentique 2026 est celui qui s’aligne sur votre contrainte dominante : délai, gouvernance, ou coût par tâche à volume.
L’idée centrale tient en une phrase : en février 2026, la compétition ne sacre pas un “meilleur modèle”, elle impose un choix explicite entre vitesse, contexte long, agentique et souveraineté d’infra.
GPT‑5.3‑Codex et Claude Opus 4.6 maximisent l’exécution dans des écosystèmes propriétaires mûrs ; GLM‑5 ouvre une voie crédible au self-hosting, au prix d’un effort MLOps et d’un coût inference plus exigeant. La suite se jouera moins sur un score unique que sur l’intégration aux workflows et la gouvernance des données. Prenez vos cas d’usage réels, mesurez latence, taux de réussite et coût par tâche, puis tranchez.
