O Claude Code acabou de zerar os limites semanais de todo mundo — Eis o que aconteceu
Uma condição de corrida entre o Auto Memory e a compressão de contexto no Claude Code v2.1.59–v2.1.61 quebrou o cache de prompts e corrompeu sessões. A Anthropic zerou os limites semanais de todos os usuários como compensação.
Resumo rápido
Uma condição de corrida entre o Auto Memory e a compressão de contexto no Claude Code v2.1.59–v2.1.61 quebrou o cache de prompts e corrompeu sessões. A Anthropic zerou os limites semanais de todos os usuários como compensação.
Seu limite semanal do Claude Code acabou de ser zerado. Toda a cota, recarregada de uma vez.
Fui verificar meu consumo agora há pouco e não acreditei. Um limite semanal que eu já tinha gasto mais de 80% de repente voltou a zero. Era compensação por um bug.
O Thariq, responsável pelo Claude Code na Anthropic, publicou um comunicado há cerca de uma hora: reset dos limites semanais para todos os usuários. O que aconteceu nos bastidores vale a pena entender.
O que aconteceu
A partir da v2.1.59, o Claude Code passou a incluir a funcionalidade Auto Memory. O problema é que essa funcionalidade e o sistema de compressão de contexto (compaction) já existente acessavam simultaneamente o mesmo armazenamento de conversas, gerando um conflito. O cache de prompts parou de funcionar corretamente, fazendo o consumo de tokens disparar de forma anormal.
- Versões afetadas: v2.1.59 a v2.1.61
- Hotfix lançado: v2.1.62
- Medida: reset completo dos limites semanais
Os sintomas foram sérios
Não era só o limite acabando mais rápido. Usuários relataram corrupção de contexto no meio da sessão — partes anteriores das conversas sendo cortadas ou, pior, fragmentos de sessões completamente diferentes invadindo a sessão atual.
O próprio comando /compact retornava resultados corrompidos quando o Auto Memory estava ativado. Podemos chamar isso de “emaranhamento de contexto”: a IA confundia a conversa atual com conversas anteriores.
- Parte inicial das conversas desaparecendo ou sendo cortada no meio da sessão
- Fragmentos de sessões anteriores aparecendo na sessão ativa
- Limites de mensagens se desalinhando quando Auto Memory e Auto Compaction rodavam simultaneamente
- Bugs de compressão similares já haviam sido observados nas versões v2.1.47, v2.1.21 e v2.1.14
Causa raiz: uma condição de corrida
O sistema Auto Memory e a lógica de compressão de contexto liam e escreviam no mesmo armazenamento de mensagens ao mesmo tempo. Quando a sincronização se desfasou, o mecanismo de salvamento automático sobrescrevia o estado atual com dados defasados. O fato de a lógica de compressão revelar vulnerabilidades de forma recorrente aponta para a necessidade de uma melhoria estrutural profunda.
- Problema central: conflito de leitura/escrita concorrente (race condition)
- Fator agravante: o salvamento automático sobrescrevia o estado atual com dados obsoletos
O cache de prompts quebra mais fácil do que você imagina
Se você está construindo agentes de IA, preste muita atenção neste ponto.
Quando o cache de prompts falha em uma ferramenta de programação baseada em agentes, custo e velocidade desabam ao mesmo tempo. A própria Anthropic reconheceu que “o cache regride com uma facilidade surpreendente”. Se você não projetar a arquitetura do seu agente pensando na estabilidade do cache desde o início, esse tipo de incidente vai se repetir.
- Cache quebrado significa 2 a 3 vezes mais tokens para o mesmo trabalho
- Fixar os caminhos de cache na fase de design do agente não é opcional — é essencial
O que fazer agora
Ferramentas evoluem rápido, mas também quebram rápido. Quando aparecer uma notificação de atualização, não clique na hora — confira as notas do patch antes.
Ação imediata: rode claude update e confirme que você está na v2.1.62 ou mais recente.
Aproveite seus limites recém-zerados. Tokens de graça não aparecem todo dia.
Assine a newsletter
Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.