A Anthropic revela três falhas do Claude Code em cascata: degradação do raciocínio, esquecimento do cache e reação adversa de comandos de 25 caracteres

A Anthropic publicou em 4/23 uma revisão da qualidade do incidente do Claude Code, reconhecendo publicamente que três erros de engenharia em sobreposição nos últimos cerca de dois meses levaram a uma degradação da qualidade de utilização do Claude Code, e sincronizou também o impacto para o Claude Agent SDK e o Claude Cowork. A empresa afirma que «valorizamos imenso os relatórios sobre a degradação do modelo e nunca reduzimos deliberadamente as capacidades do modelo», e em 4/23 reiniciou o limite máximo de utilização para todos os subscritores como compensação.

Cronologia dos três bugs e causas técnicas

Problema Período em que esteve ativo Causa raiz Versão de correção Degradação do orçamento de inferência 3/4–4/7 effort de reasoning Por predefinição passou de high para medium, fazendo com que os utilizadores sintam o modelo «mais parvo» 4/7 rollback Limpeza de cache bug 3/26–4/10 sessão com thinking mais de 1 hora ociosa O cache de thinking é limpo em cada ronda, em vez de apenas uma vez v2.1.101 prompt conciso phản噬 4/16–4/20 novo comando de sistema «texto entre chamadas de ferramenta ≤25 caracteres», ablation revela queda de inteligência global de 3% v2.1.116

Degradação do reasoning: o custo de reduzir a latência

3/4 A Anthropic ajustou o reasoning effort predefinido do Claude Code de high para medium, com o objetivo de reduzir a latência de resposta. Porém, esta alteração fez com que o modelo parecesse «mais parvo» em tarefas de raciocínio de código e depuração. Depois do rollback em 4/7, agora o Opus 4.7 tem por predefinição xhigh, e os outros modelos mantêm high. A empresa reconheceu: a avaliação interna antes da mudança não conseguiu detetar esta degradação.

Bug de limpeza de cache: erro implícito nas fronteiras entre sistemas

3/26 A Anthropic introduziu otimização de prompt caching para sessões em estado ocioso por mais de uma hora. O desenho original era «limpar o cache de thinking uma vez quando a ociosidade atingir uma hora», mas na prática passou a ser «limpar a cada ronda após a ociosidade ser acionada», levando a que o Claude, em sessões longas, se comportasse como «esquecido, repetitivo», e que, em cada cache miss, o consumo do utilizador fosse esgotado rapidamente. A Anthropic indicou que este bug «existe na interseção entre a gestão de contexto do Claude Code, a Anthropic API e o extended thinking», envolvendo várias fronteiras de sistemas e sendo um erro implícito difícil de detetar com testes unitários. A correção foi publicada em 4/10 na v2.1.101.

Comando conciso de 25 caracteres: a queda de inteligência só foi detetada com ablation

4/16 A Anthropic adicionou uma instrução de sistema: «a saída de texto entre chamadas de ferramentas deve manter-se dentro de 25 caracteres». A intenção era reduzir explicações longas do modelo, tornando a experiência mais limpa. Na altura, os testes internos não detetaram degradação, mas após uma comparação experimental de ablation mais rigorosa, a empresa descobriu que esta instrução causou cerca de 3% de queda de inteligência global tanto nos modelos Opus 4.6 como 4.7. O rollback ocorreu em 4/20 na v2.1.116. Este incidente evidencia que até uma ligeira reformulação do system prompt pode gerar impactos estruturais não previstos no comportamento do modelo.

Âmbito de impacto

Camada do produto: Claude Code (todos os três problemas são afetados), Claude Agent SDK (①②), Claude Cowork (todos)

Camada do modelo: Sonnet 4.6, Opus 4.6, Opus 4.7

Infraestrutura base de API: não afetada

No nível da perceção do utilizador, isso manifestou-se como: diminuição da qualidade de resposta e da «inteligência», aumento da latência, perda de contexto da conversation a meio, e consumo de uso mais rápido do que o previsto.

Compensação e melhorias de processo

A Anthropic, em 4/23, reiniciou o limite máximo de utilização para todos os subscritores como compensação direta. As melhorias de processo comprometidas em simultâneo incluem:

Implementar um conjunto mais amplo de avaliação (evaluation suite) para mudanças no system prompt

Melhorar a ferramenta de Code Review para detetar regressões mais cedo

Padronizar os critérios dos testes internos em builds públicas, evitando divergências de comportamento entre «versões internas» e «versões para fora»

Adicionar um soak period e rollout faseado para alterações que possam afetar a inteligência do modelo

Lições para os utilizadores

Para utilizadores que dependem do Claude Code para desenvolvimento diário e pesquisa, esta postmortem tem três pontos-chave a reter: primeiro, se entre meados de março e 20 de abril sentiste que o modelo Claude «ficou mais parvo», ou se o Claude Code teve uma perda de memória anormal em sessões longas, isso não é tua perceção errada nem um uso inadequado do prompt; segundo, utilizadores cujo limite de utilização foi rapidamente consumido durante este período podem confirmar após 4/23 se a Anthropic já reiniciou automaticamente; terceiro, mesmo um ajuste de prompt tão pequeno quanto «dentro de 25 caracteres» pode produzir impactos sistémicos no comportamento global do modelo — este é um risco comum na engenharia de produtos LLM.

Em comparação com a concorrência, que muitas vezes responde às acusações de degradação do modelo com silêncio ou «isto é operação incorreta do utilizador», a divulgação proativa e a transparência técnica da Anthropic nesta ocasião estabelecem um exemplo de referência para revisões de incidentes de produtos de IA.

Este artigo, em que a Anthropic revela de forma autónoma a sobreposição dos três bugs do Claude Code: degradação do reasoning, esquecimento do cache, e efeito adverso de instruções de 25 caracteres, aparece pela primeira vez em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Admiral Indica que o Governo dos EUA Opera um Nó de Bitcoin sem Mineração

Um almirante sénior indicou que o Governo dos EUA está a operar activamente um nó na rede Bitcoin, enquanto evita deliberadamente participar em actividades de mineração. A divulgação sugere que as autoridades estão a assumir um papel mais envolvido na infra-estrutura de blockchain para supervisão e

CryptoFrontier14m atrás

Receita do 1.º trimestre da Tesla aumenta 16% para 22,4 mil milhões de dólares; robô humanoide com estreia prevista para meados de 2026

Mensagem das Gate News, 24 de Abril — A Tesla reportou uma receita do primeiro trimestre de 22,4 mil milhões de US$ em 23 de Abril, representando um aumento de 16% em termos homólogos. As entregas globais de veículos da empresa ultrapassaram as 358.000 unidades, enquanto a produção superou as 408.000 unidades. A Gigafábrica de Xangai da Tesla entregou 213.000 veícu

GateNews14m atrás

Lucro da SK Hynix no 1.º trimestre dispara cinco vezes para um recorde com a euforia da IA, aumentando os bónus dos colaboradores para $878K

Mensagem de notícias da Gate, 24 de abril — A SK Hynix reportou uma subida de cinco vezes no lucro operacional trimestral, para um recorde de 37,61 biliões de won ($32,4 mil milhões) a 23 de abril, impulsionada pela procura acelerada de inteligência artificial e centros de dados. O excedente está a financiar bónus para colaboradores sem precedentes, que os analistas prevêem poderem atingir até $878.000 por trabalhador em 2027, se as actuais previsões de resultados se mantiverem.

GateNews54m atrás

Arquitectura do DeepSeek V4 Verificada: 3 de 4 Previsões Acertadas, Módulo Engram Ausente

Mensagem de notícias da Gate, 24 de Abril — A DeepSeek lançou hoje o modelo V4, validando previsões arquitectónicas anteriores feitas através da análise da biblioteca de kernels TileKernels lançada ontem (23 de Abril). De acordo com o acompanhamento da Beating, três componentes centrais foram confirmados: mHC

GateNews54m atrás

A DeepSeek Lança a Série de Modelos Open-Source V4 com 1,6T Parâmetros e Licença MIT

Mensagem do Gate News, 24 de abril — A DeepSeek lançou a série V4 de modelos de código aberto sob a Licença MIT, com pesos agora disponíveis na Hugging Face e na ModelScope. A série inclui dois modelos (MoE) de mixture-of-experts: V4-Pro com 1,6 biliões de parâmetros totais e 49 mil milhões ativados por token

GateNews1h atrás

A SoftBank Planeia uma Fábrica de Baterias para Centros de Dados de IA em Osaka, com Objectivo de Produção em Cinco Anos

Mensagem da Gate News, 24 de Abril — A SoftBank Corp, a unidade móvel do grupo SoftBank do Japão, planeia converter parte da sua fábrica em Sakai, Osaka, numa grande linha de produção de baterias para centros de dados de IA. O CEO Junichi Miyakawa deverá anunciar o projecto em Maio, no âmbito de um novo plano de cinco anos,

GateNews1h atrás
Comentar
0/400
Nenhum comentário