# O Claude Code acabou de zerar os limites semanais de todo mundo — Eis o que aconteceu > Author: Tony Lee > Published: 2026-03-03 > URL: https://tonylee.im/pt/blog/claude-code-weekly-limit-reset-auto-memory-bug/ > Reading time: 3 minutes > Language: pt > Tags: claude-code, ai, developer-tools, anthropic, debugging ## Description Uma condição de corrida entre o Auto Memory e a compressão de contexto no Claude Code v2.1.59–v2.1.61 quebrou o cache de prompts e corrompeu sessões. A Anthropic zerou os limites semanais de todos os usuários como compensação. ## Content Seu limite semanal do Claude Code acabou de ser zerado. Toda a cota, recarregada de uma vez. Fui verificar meu consumo agora há pouco e não acreditei. Um limite semanal que eu já tinha gasto mais de 80% de repente voltou a zero. Era compensação por um bug. O Thariq, responsável pelo Claude Code na Anthropic, publicou um comunicado há cerca de uma hora: reset dos limites semanais para todos os usuários. O que aconteceu nos bastidores vale a pena entender. ## O que aconteceu A partir da v2.1.59, o Claude Code passou a incluir a funcionalidade Auto Memory. O problema é que essa funcionalidade e o sistema de compressão de contexto (compaction) já existente acessavam simultaneamente o mesmo armazenamento de conversas, gerando um conflito. O cache de prompts parou de funcionar corretamente, fazendo o consumo de tokens disparar de forma anormal. - Versões afetadas: v2.1.59 a v2.1.61 - Hotfix lançado: v2.1.62 - Medida: reset completo dos limites semanais ## Os sintomas foram sérios Não era só o limite acabando mais rápido. Usuários relataram corrupção de contexto no meio da sessão — partes anteriores das conversas sendo cortadas ou, pior, fragmentos de sessões completamente diferentes invadindo a sessão atual. O próprio comando `/compact` retornava resultados corrompidos quando o Auto Memory estava ativado. Podemos chamar isso de "emaranhamento de contexto": a IA confundia a conversa atual com conversas anteriores. - Parte inicial das conversas desaparecendo ou sendo cortada no meio da sessão - Fragmentos de sessões anteriores aparecendo na sessão ativa - Limites de mensagens se desalinhando quando Auto Memory e Auto Compaction rodavam simultaneamente - Bugs de compressão similares já haviam sido observados nas versões v2.1.47, v2.1.21 e v2.1.14 ## Causa raiz: uma condição de corrida O sistema Auto Memory e a lógica de compressão de contexto liam e escreviam no mesmo armazenamento de mensagens ao mesmo tempo. Quando a sincronização se desfasou, o mecanismo de salvamento automático sobrescrevia o estado atual com dados defasados. O fato de a lógica de compressão revelar vulnerabilidades de forma recorrente aponta para a necessidade de uma melhoria estrutural profunda. - Problema central: conflito de leitura/escrita concorrente (race condition) - Fator agravante: o salvamento automático sobrescrevia o estado atual com dados obsoletos ## O cache de prompts quebra mais fácil do que você imagina Se você está construindo agentes de IA, preste muita atenção neste ponto. Quando o cache de prompts falha em uma ferramenta de programação baseada em agentes, custo e velocidade desabam ao mesmo tempo. A própria Anthropic reconheceu que "o cache regride com uma facilidade surpreendente". Se você não projetar a arquitetura do seu agente pensando na estabilidade do cache desde o início, esse tipo de incidente vai se repetir. - Cache quebrado significa 2 a 3 vezes mais tokens para o mesmo trabalho - Fixar os caminhos de cache na fase de design do agente não é opcional — é essencial ## O que fazer agora Ferramentas evoluem rápido, mas também quebram rápido. Quando aparecer uma notificação de atualização, não clique na hora — confira as notas do patch antes. Ação imediata: rode `claude update` e confirme que você está na v2.1.62 ou mais recente. Aproveite seus limites recém-zerados. Tokens de graça não aparecem todo dia. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/pt/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.