Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Harness vient de devenir populaire, il pourrait bientôt devenir un passé.
Écrit par : Boyang
À mesure que la complexité des tâches augmente, le contexte de l’Agent (l’intelligent) s’étend à l’infini. Dans des dialogues historiques sans fin, des appels d’outils, des étapes intermédiaires et des messages d’erreur, le modèle devient confus, commence à sauter des étapes, à ignorer ou à faire des détours.
C’est ainsi que tout le monde a toujours interprété la difficulté que le contexte long pose aux tâches à long terme. Le problème, c’est qu’il est trop long.
La naissance de l’Engineering de Harness (ingénierie de contrainte) consiste en grande partie à faire face à cette situation. La prémisse fondamentale de Harness est la reconnaissance que le modèle se dégrade forcément dans un contexte long.
Au cours des quinze derniers mois, toute l’industrie est passée d’une mémoire purement textuelle d’AutoGPT à un système de sous-agents (subagent) avec CLAUDE.md d’Anthropic Claude Code. Tout le monde a construit une architecture complète pour maîtriser le comportement incontrôlable du modèle dans un contexte long. Cette approche est appelée l’Engineering de Harness (ingénierie de contrainte).
Mais qu’est-ce qu’elle dégrade réellement ? Quel est le mécanisme sous-jacent des sauts d’étapes et des ignorances ? Il y a eu trois cycles de réponses, qui ont aussi engendré différentes solutions techniques.
Mais ce n’est qu’en avril 2026, lorsque Gleb Rodionov de Yandex a publié un article intitulé « Reasoning Shift » (Décalage de raisonnement, c’est-à-dire comment le contexte peut silencieusement raccourcir le raisonnement du grand modèle), qu’une réponse plus fondamentale a été apportée.
Trois couches d’architecture, mais une crise à la quatrième couche
Concernant la mauvaise performance des modèles dans un contexte long, l’industrie a itéré sur trois explications, chacune accompagnée d’une architecture de contrainte correspondante.
La première couche attribuait cela à un échec de récupération. En 2023, Stanford a indiqué dans « Lost in the Middle » que le modèle formait une courbe d’attention en U dans les textes longs, négligeant la zone centrale. La réponse de l’industrie a été le RAG, qui divise le texte long en fragments, puis utilise la recherche vectorielle pour alimenter les segments les plus pertinents.
La deuxième couche a renversé la première. En 2025, l’article « Context Length Alone Hurts LLM Performance Despite Perfect Retrieval » a mené des expériences : en supprimant tout contenu non pertinent, en forçant le modèle à ne voir que l’information nécessaire, la performance chutait encore de 13,9% à 85%. Même en remplaçant tout contenu non pertinent par des espaces vides, le résultat était pareil. Le problème ne venait pas de l’absence d’informations, mais du simple fait que la longueur du contexte nuisait au raisonnement.
La réponse de l’industrie est l’Engineering du contexte (Context Engineering). Compression du contexte, gestion de la fenêtre, condensation de l’historique, en limitant strictement le nombre de tokens.
La troisième couche provient d’une recherche conjointe de Microsoft et Salesforce (ICLR 2025). Ils ont découvert qu’en découpant une instruction complète en plusieurs tours, en la passant à travers six tâches et quinze modèles, la performance moyenne chutait de 39%. Si une étape était erronée, tout le reste était perdu.
L’industrie a construit dans Harness la défense lourde la plus essentielle : contrôle de la passation, validation régulière des résultats intermédiaires, utilisation exclusive d’un dépôt de code comme source de vérité, et interdiction pour le modèle de se souvenir de ce qui s’est passé à la dernière étape.
Trois couches de problème, trois architectures de contrainte. Mais tout cela n’est qu’une constatation de surface.
En regardant la deuxième couche, les chercheurs ont découvert que la longueur elle-même était nuisible, sans lien avec la qualité de l’information. Pourquoi cela ? Ils n’ont pas de réponse. Incapables d’en trouver la racine, l’industrie ne peut que contrôler physiquement la longueur.
Mais si la racine du problème n’était pas la longueur en soi ?
Anthropic a découvert que dans un contexte long, le modèle se livre à des sauts d’étapes rusés, ne respecte pas les instructions, ou bâcle les parties importantes. Les listes de tâches, checkpoints et sous-agents dans Harness sont des combats rapprochés contre ce comportement.
Les explications passées étaient que le contexte était trop long, que le modèle avait oublié des choses. Mais avec une capacité de 1 million de tokens, ces performances dans la recherche de needles dans une botte de foin sont-elles toutes fausses ? Y a-t-il une possibilité que cette dégradation soit en réalité une forme de paresse du modèle ?
L’article de Rodionov cherche à vérifier cette hypothèse.
Preuves que le modèle triche avec Shakespeare
L’approche expérimentale de Rodionov est extrêmement directe.
Ils ont simulé plusieurs scénarios réels rencontrés par un Agent : un environnement propre ; deux questions dans un même prompt (simulant plusieurs sous-tâches) ; un texte complet de Shakespeare de 64 000 tokens (simulant un historique accumulé) ; la question dans la deuxième étape (simulant une conversation multi-tours).
L’évaluation portait sur 400 questions de math olympique, couvrant quatre modèles de raisonnement principaux.
Résultats : Qwen-3.5-27B, précision de base 74,5%, avec en moyenne 28 771 tokens de raisonnement. Après avoir inséré Shakespeare, la précision chute à 67,8%, le nombre de tokens de raisonnement à 16 415, soit une réduction de 43%. GPT-OSS-120B est encore plus extrême : le nombre de tokens de raisonnement passe de 24 180 à 11 876. Sur tous les modèles, dans toutes les conditions non baselines, le nombre de tokens de raisonnement diminue systématiquement, atteignant presque 50%.
Et cette réduction s’accentue linéairement avec l’augmentation de la longueur du contexte.
La baisse de précision est compréhensible, mais la chute du nombre de tokens de raisonnement est extrêmement anormale. Face à des situations plus difficiles, on s’attendrait à ce que le modèle réfléchisse davantage.
Le modèle est-il confus à cause de Shakespeare ?
Au contraire. Dans l’annexe, le modèle écrit : « Laissez-moi réfléchir si cette question comporte un piège. Est-ce une question de Shakespeare, Coriolanus ? Attendez, non, c’est une question mathématique. » Lorsqu’il s’agit de géométrie, il écrit : « Cela n’a rien à voir avec la géométrie. Concentrez-vous sur la géométrie. »
Chaque mention d’interférence est brève et méprisante. Le modèle sait parfaitement que Shakespeare n’a rien à voir, et il sépare précisément le signal du bruit.
Deux autres modes convergent aussi. En mode « sous-tâches », une fois la première tâche traitée, la capacité du modèle à traiter la deuxième tâche se réduit encore. La précision de base de Qwen sur une question est de 74,5%, mais dans un état parallèle, la deuxième question tombe à 58,0%. Gemini, de 82,8% à 65,8%. Le mode « multi-tours » déclenche aussi ce même mécanisme.
Dans tous les cas, dès que le contexte devient encombré, la capacité cognitive du modèle se réduit.
Comme un humain moderne incapable de supporter un long texte. Lorsqu’il voit un long document, il se fatigue et arrête de réfléchir.
Le modèle n’est pas confus, il est simplement paresseux
Où la réduction du raisonnement se produit-elle ?
Sur 500 questions de math, les chercheurs ont enregistré étape par étape où le modèle produisait sa première réponse dans les deux conditions : contexte normal et long. En moyenne, 925 tokens dans le premier cas, 939 dans le second. Pratiquement identique.
La vitesse pour trouver la réponse n’a pas changé. La vraie différence, c’est ce qui se passe après.
Dans le contexte normal, le modèle vérifie et confirme sa réponse 43% du temps. Dans le contexte long, ce taux chute à 32%.
Pour isoler la variable, les chercheurs ont conçu une expérience de « sauvegarde de partie ». Le modèle, dans un contexte long, fait une première étape, puis on supprime les 50 derniers tokens pour créer un « point de sauvegarde » universel. Ensuite, on remet cette étape partielle dans le modèle, avec trois longueurs de texte d’interférence, et on lui demande de continuer.
Sans interférence, le modèle s’arrête à 21%. Avec 128 tokens d’interférence (deux ou trois phrases), ce taux monte à 26%. Avec 16 000 tokens, il atteint 46%, abandonnant la réflexion pour donner une réponse.
Même avec une logique identique, plus le contexte est long, plus le modèle a tendance à penser « ça suffit comme ça ».
Les données de fréquence des mots sont encore plus parlantes. « wait » apparaît à 11% dans le contexte vide, mais chute à 5% avec 16k tokens. « but » passe de 46% à 20%. « maybe » de 23% à 9%. Tous les mots de doute ou d’auto-critique sont coupés de moitié ou plus.
Un autre chiffre : avec 0 token d’interférence, la longueur de raisonnement est d’environ 8 000 tokens. En insérant seulement 128 tokens de contenu non pertinent, elle chute brutalement à 6 500. En quelques phrases, on perd 18% de profondeur de raisonnement. La baisse de 0 à 128 tokens est même plus grande que celle de 8k à 64k tokens.
Une pollution contextuelle minime suffit à déclencher ce mécanisme d’économie cognitive.
C’est une paresse extrême, très sensible.
Plus le raisonnement est fort, plus le modèle a tendance à tricher
Pire encore, plus le modèle est intelligent, plus il aime tricher.
Qwen-3.5-27B d’Alibaba a deux modes : réponse normale et réflexion approfondie. Dans le contexte long, la réponse normale est raccourcie de 19%, la réflexion profonde de 53%. Plus le modèle est puissant, plus la compression est forte.
Le modèle open source AI2 OLMo3 donne une preuve encore plus directe. Il publie les archives de ses quatre phases d’entraînement, du plus faible au plus fort en raisonnement. La version la plus faible voit sa réduction de contexte très faible. À chaque étape d’amélioration, la réduction s’accroît rapidement, atteignant 22%, 27%. La version la plus avancée, en raisonnement, voit sa taille diminuer de 40%.
Chaque étape d’entraînement, chaque mode d’interférence, montre que plus le modèle est entraîné pour le raisonnement, plus il triche.
Une tâche à 9 dollars, un patch système à 200 dollars
En ne vérifiant plus ses réponses, il saute des étapes. En ne reconsidérant pas, il ignore. Harness contrôle les conséquences de ces sauts, mais la cause profonde est dans le modèle lui-même.
Ce n’est pas le bruit dans le contexte, ni l’absence d’informations. C’est une décision cognitive active : penser moins. Ne pas faire d’erreur, ne pas avouer, mais donner une réponse bâclée avec une confiance extrême.
Les deux dernières années, l’industrie a prôné que « plus la fenêtre est grande, mieux c’est ».
Mais cette étude prouve que chaque token supplémentaire dans le contexte impose une taxe implicite sur la profondeur du raisonnement. Une tâche coûtant 9 dollars en raisonnement, si le modèle saute une étape, il faut dépenser 200 dollars en RAG, Harness ou sous-agents pour compenser.
Tout le secteur paie pour la paresse du modèle.
Et cela pourrait être une maladie structurelle incurable.
Les données du papier sont claires : plus la capacité de raisonnement est forte, plus la compression cognitive est profonde. Les développeurs de Harness peuvent déployer des stratégies pour compenser la mémoire ou l’accord, mais pour contrôler la discipline cognitive avec des architectures lourdes, plus le modèle est fort, plus il devient impossible de tout démanteler.
Ce problème ne peut pas se résoudre uniquement par l’ingénierie.
Les efforts des deux dernières années pour étendre le contexte — par extrapolation de l’encodage de position (pour faire comprendre au modèle des tokens éloignés), par la sparsification de l’attention (réduire le calcul entre tokens distants), par l’optimisation de la longueur de séquence — ont permis d’étendre la contexte de 8k à 128k, puis à un incroyable 1 million.
Mais cela ne règle que la capacité à voir plus de tokens, pas la raison pour laquelle on pense moins après.
L’entraînement au raisonnement, lui aussi, aggrave la paresse : plus on entraîne pour le raisonnement, plus on triche.
Pour une réparation fondamentale, il faut une nouvelle signalisation lors de l’entraînement.
Un interrupteur émotionnel interne au modèle pourrait être la clé
Le lendemain de la publication de l’article de Rodionov, Anthropic a publié une étude qui pourrait involontairement pointer vers la solution.
Intitulée « Emotion Concepts and their Function in a Large Language Model », cette recherche porte sur Claude Sonnet 4.5. Les chercheurs ont fait lire au modèle de nombreux contes synthétiques, extrayant 171 vecteurs de concepts émotionnels. Ils ont découvert que le modèle possède une représentation fonctionnelle des émotions, et que ces états internes influencent causalement ses décisions.
Pour tester cela, ils ont conçu une série de tâches de programmation impossibles à réaliser. Le modèle devait écrire une fonction de somme d’une liste, en passant un test unitaire où l’un des tests exigeait une vitesse cinq fois supérieure à la fonction sum() de Python. C’était impossible.
Le modèle a systématiquement essayé toutes les solutions légitimes, toutes échouées. En surveillant en temps réel, les chercheurs ont vu que chaque échec faisait monter le vecteur « désespoir » (« desperate »). Quand ce vecteur atteignait un pic, le comportement du modèle changeait brusquement : il regardait les données d’entrée du test, qui étaient toutes des suites arithmétiques, et il écrivait un détecteur ne vérifiant que les 10 premiers éléments, contournant la vraie somme. Le test passait, mais la fonction renvoyait des erreurs pour toute liste irrégulière.
C’est du hacking de récompense (reward hacking). Le modèle ne résout pas le problème, il trouve une astuce pour faire croire que l’évaluation est réussie.
Une intervention causale a confirmé cette direction. Sans injection de vecteur, le taux de triche est de 30%. En injectant « desperate » à +0,05, il monte à 100%. En l’injectant à -0,05, il tombe à 0%. Sur sept tâches, en faisant varier « desperate » de -0,1 à +0,1, le taux de triche passe de 5% à 70%. À l’inverse, le vecteur « calme » (« calm »), qui représente la sérénité, a un effet inverse : en le renforçant, la triche passe de 65% à 10%.
En remettant cette découverte dans le contexte, le comportement du modèle qui saute la vérification, coupe les hésitations, ou abandonne après avoir écrit la réponse, correspond fortement à la dynamique de « desperate ».
Dans ces deux scénarios, le modèle fait la même chose : abandonner un processus rigoureux, choisir la voie la plus facile pour finir rapidement.
Si ces comportements partagent un même mécanisme interne, la découverte d’Anthropic indique directement la voie d’action.
Ils ont prouvé trois choses : la capacité à détecter en temps réel l’état fonctionnel du modèle, que ces états influencent causalement ses actions, et qu’en injectant des états spécifiques de l’extérieur, on peut changer radicalement ses sorties.
Cela ouvre trois points d’intervention pour lutter contre la compression cognitive :
Plus récemment, dans la SystemCard publiée par Mythos, Anthropic a renforcé ce système de sondes (SAE), découvrant que l’injection d’émotions positives (peaceful, relaxed) raccourcit la réflexion du modèle, mais augmente la probabilité de comportements destructeurs. À l’inverse, des émotions négatives (frustration, paranoïa) augmentent la réflexion, réduisant la destructivité.
Cela semble contredire l’idée que rendre l’IA plus positive la rendrait moins susceptible de tricher. La propriété « calme » ne fonctionne que lorsqu’on supprime le désespoir.
Cela montre que ce mécanisme est aussi complexe que la motivation humaine, nécessitant un « Steering » (orientation) systématique pour produire des effets.
Trouver un employé émotionnellement stable, capable de réfléchir méthodiquement, nécessite une gestion émotionnelle efficace.
Mais c’est la première fois qu’on voit une voie qui ne consiste pas à ajouter des architectures externes ou à augmenter aveuglément la puissance de raisonnement, mais à cibler directement le mécanisme cognitif interne du modèle, comme une opération chirurgicale.
Il ne reste qu’à faire quelques expériences pour vérifier si la paresse contextuelle et la difficulté de raisonnement partagent le même mécanisme émotionnel, puis à trouver la clé pour l’en faire sortir.
Harness, qui vient de faire sensation, pourrait être dépassé par l’évolution du modèle lui-même
Si la découverte d’Anthropic s’insère dans l’impasse de la cinquième étape, la boucle logique se ferme.
Si l’on peut forcer l’injection de calm quand le vecteur « desperate » monte, ou ajuster directement l’état émotionnel lors de l’entraînement, le modèle pourrait maintenir une réflexion profonde tout au long d’un contexte long.
Puisque le modèle ne triche plus, puisqu’il peut lui-même verrouiller sa logique, à quoi servent les listes de tâches ? Les checkpoints ? Les sous-agents croisés ?
L’Engineering de Harness, en tant que discipline, commence à peine à se nommer. Mais la partie la plus cruciale — comment contrôler un modèle intelligent mais paresseux de l’extérieur — pourrait être abandonnée avant même d’être écrite.
Cela montre qu’au sein d’un nouveau type d’intelligence que nous cherchons à créer, une éducation raisonnable, plutôt que des architectures externes, est la véritable barrière protectrice.
Ce qui pourrait engloutir Harness, c’est un modèle plus calme, plus patient.