A Anthropic publicou em 4/23 uma revisão da qualidade do incidente do Claude Code, reconhecendo publicamente que três erros de engenharia em sobreposição nos últimos cerca de dois meses levaram a uma degradação da qualidade de utilização do Claude Code, e sincronizou também o impacto para o Claude Agent SDK e o Claude Cowork. A empresa afirma que «valorizamos imenso os relatórios sobre a degradação do modelo e nunca reduzimos deliberadamente as capacidades do modelo», e em 4/23 reiniciou o limite máximo de utilização para todos os subscritores como compensação.
Cronologia dos três bugs e causas técnicas
Problema Período em que esteve ativo Causa raiz Versão de correção Degradação do orçamento de inferência 3/4–4/7 effort de reasoning Por predefinição passou de high para medium, fazendo com que os utilizadores sintam o modelo «mais parvo» 4/7 rollback Limpeza de cache bug 3/26–4/10 sessão com thinking mais de 1 hora ociosa O cache de thinking é limpo em cada ronda, em vez de apenas uma vez v2.1.101 prompt conciso phản噬 4/16–4/20 novo comando de sistema «texto entre chamadas de ferramenta ≤25 caracteres», ablation revela queda de inteligência global de 3% v2.1.116
Degradação do reasoning: o custo de reduzir a latência
3/4 A Anthropic ajustou o reasoning effort predefinido do Claude Code de high para medium, com o objetivo de reduzir a latência de resposta. Porém, esta alteração fez com que o modelo parecesse «mais parvo» em tarefas de raciocínio de código e depuração. Depois do rollback em 4/7, agora o Opus 4.7 tem por predefinição xhigh, e os outros modelos mantêm high. A empresa reconheceu: a avaliação interna antes da mudança não conseguiu detetar esta degradação.
Bug de limpeza de cache: erro implícito nas fronteiras entre sistemas
3/26 A Anthropic introduziu otimização de prompt caching para sessões em estado ocioso por mais de uma hora. O desenho original era «limpar o cache de thinking uma vez quando a ociosidade atingir uma hora», mas na prática passou a ser «limpar a cada ronda após a ociosidade ser acionada», levando a que o Claude, em sessões longas, se comportasse como «esquecido, repetitivo», e que, em cada cache miss, o consumo do utilizador fosse esgotado rapidamente. A Anthropic indicou que este bug «existe na interseção entre a gestão de contexto do Claude Code, a Anthropic API e o extended thinking», envolvendo várias fronteiras de sistemas e sendo um erro implícito difícil de detetar com testes unitários. A correção foi publicada em 4/10 na v2.1.101.
Comando conciso de 25 caracteres: a queda de inteligência só foi detetada com ablation
4/16 A Anthropic adicionou uma instrução de sistema: «a saída de texto entre chamadas de ferramentas deve manter-se dentro de 25 caracteres». A intenção era reduzir explicações longas do modelo, tornando a experiência mais limpa. Na altura, os testes internos não detetaram degradação, mas após uma comparação experimental de ablation mais rigorosa, a empresa descobriu que esta instrução causou cerca de 3% de queda de inteligência global tanto nos modelos Opus 4.6 como 4.7. O rollback ocorreu em 4/20 na v2.1.116. Este incidente evidencia que até uma ligeira reformulação do system prompt pode gerar impactos estruturais não previstos no comportamento do modelo.
Âmbito de impacto
Camada do produto: Claude Code (todos os três problemas são afetados), Claude Agent SDK (①②), Claude Cowork (todos)
Camada do modelo: Sonnet 4.6, Opus 4.6, Opus 4.7
Infraestrutura base de API: não afetada
No nível da perceção do utilizador, isso manifestou-se como: diminuição da qualidade de resposta e da «inteligência», aumento da latência, perda de contexto da conversation a meio, e consumo de uso mais rápido do que o previsto.
Compensação e melhorias de processo
A Anthropic, em 4/23, reiniciou o limite máximo de utilização para todos os subscritores como compensação direta. As melhorias de processo comprometidas em simultâneo incluem:
Implementar um conjunto mais amplo de avaliação (evaluation suite) para mudanças no system prompt
Melhorar a ferramenta de Code Review para detetar regressões mais cedo
Padronizar os critérios dos testes internos em builds públicas, evitando divergências de comportamento entre «versões internas» e «versões para fora»
Adicionar um soak period e rollout faseado para alterações que possam afetar a inteligência do modelo
Lições para os utilizadores
Para utilizadores que dependem do Claude Code para desenvolvimento diário e pesquisa, esta postmortem tem três pontos-chave a reter: primeiro, se entre meados de março e 20 de abril sentiste que o modelo Claude «ficou mais parvo», ou se o Claude Code teve uma perda de memória anormal em sessões longas, isso não é tua perceção errada nem um uso inadequado do prompt; segundo, utilizadores cujo limite de utilização foi rapidamente consumido durante este período podem confirmar após 4/23 se a Anthropic já reiniciou automaticamente; terceiro, mesmo um ajuste de prompt tão pequeno quanto «dentro de 25 caracteres» pode produzir impactos sistémicos no comportamento global do modelo — este é um risco comum na engenharia de produtos LLM.
Em comparação com a concorrência, que muitas vezes responde às acusações de degradação do modelo com silêncio ou «isto é operação incorreta do utilizador», a divulgação proativa e a transparência técnica da Anthropic nesta ocasião estabelecem um exemplo de referência para revisões de incidentes de produtos de IA.
Este artigo, em que a Anthropic revela de forma autónoma a sobreposição dos três bugs do Claude Code: degradação do reasoning, esquecimento do cache, e efeito adverso de instruções de 25 caracteres, aparece pela primeira vez em 鏈新聞 ABMedia.
Related Articles
Admiral Indica que o Governo dos EUA Opera um Nó de Bitcoin sem Mineração
Receita do 1.º trimestre da Tesla aumenta 16% para 22,4 mil milhões de dólares; robô humanoide com estreia prevista para meados de 2026
Lucro da SK Hynix no 1.º trimestre dispara cinco vezes para um recorde com a euforia da IA, aumentando os bónus dos colaboradores para $878K
Arquitectura do DeepSeek V4 Verificada: 3 de 4 Previsões Acertadas, Módulo Engram Ausente
A DeepSeek Lança a Série de Modelos Open-Source V4 com 1,6T Parâmetros e Licença MIT
A SoftBank Planeia uma Fábrica de Baterias para Centros de Dados de IA em Osaka, com Objectivo de Produção em Cinco Anos