Índice
3 min de leitura

O Claude Code acabou de zerar os limites semanais de todo mundo — Eis o que aconteceu

Uma condição de corrida entre o Auto Memory e a compressão de contexto no Claude Code v2.1.59–v2.1.61 quebrou o cache de prompts e corrompeu sessões. A Anthropic zerou os limites semanais de todos os usuários como compensação.

Resumo rápido

Uma condição de corrida entre o Auto Memory e a compressão de contexto no Claude Code v2.1.59–v2.1.61 quebrou o cache de prompts e corrompeu sessões. A Anthropic zerou os limites semanais de todos os usuários como compensação.

Seu limite semanal do Claude Code acabou de ser zerado. Toda a cota, recarregada de uma vez.

Fui verificar meu consumo agora há pouco e não acreditei. Um limite semanal que eu já tinha gasto mais de 80% de repente voltou a zero. Era compensação por um bug.

O Thariq, responsável pelo Claude Code na Anthropic, publicou um comunicado há cerca de uma hora: reset dos limites semanais para todos os usuários. O que aconteceu nos bastidores vale a pena entender.

O que aconteceu

A partir da v2.1.59, o Claude Code passou a incluir a funcionalidade Auto Memory. O problema é que essa funcionalidade e o sistema de compressão de contexto (compaction) já existente acessavam simultaneamente o mesmo armazenamento de conversas, gerando um conflito. O cache de prompts parou de funcionar corretamente, fazendo o consumo de tokens disparar de forma anormal.

  • Versões afetadas: v2.1.59 a v2.1.61
  • Hotfix lançado: v2.1.62
  • Medida: reset completo dos limites semanais

Os sintomas foram sérios

Não era só o limite acabando mais rápido. Usuários relataram corrupção de contexto no meio da sessão — partes anteriores das conversas sendo cortadas ou, pior, fragmentos de sessões completamente diferentes invadindo a sessão atual.

O próprio comando /compact retornava resultados corrompidos quando o Auto Memory estava ativado. Podemos chamar isso de “emaranhamento de contexto”: a IA confundia a conversa atual com conversas anteriores.

  • Parte inicial das conversas desaparecendo ou sendo cortada no meio da sessão
  • Fragmentos de sessões anteriores aparecendo na sessão ativa
  • Limites de mensagens se desalinhando quando Auto Memory e Auto Compaction rodavam simultaneamente
  • Bugs de compressão similares já haviam sido observados nas versões v2.1.47, v2.1.21 e v2.1.14

Causa raiz: uma condição de corrida

O sistema Auto Memory e a lógica de compressão de contexto liam e escreviam no mesmo armazenamento de mensagens ao mesmo tempo. Quando a sincronização se desfasou, o mecanismo de salvamento automático sobrescrevia o estado atual com dados defasados. O fato de a lógica de compressão revelar vulnerabilidades de forma recorrente aponta para a necessidade de uma melhoria estrutural profunda.

  • Problema central: conflito de leitura/escrita concorrente (race condition)
  • Fator agravante: o salvamento automático sobrescrevia o estado atual com dados obsoletos

O cache de prompts quebra mais fácil do que você imagina

Se você está construindo agentes de IA, preste muita atenção neste ponto.

Quando o cache de prompts falha em uma ferramenta de programação baseada em agentes, custo e velocidade desabam ao mesmo tempo. A própria Anthropic reconheceu que “o cache regride com uma facilidade surpreendente”. Se você não projetar a arquitetura do seu agente pensando na estabilidade do cache desde o início, esse tipo de incidente vai se repetir.

  • Cache quebrado significa 2 a 3 vezes mais tokens para o mesmo trabalho
  • Fixar os caminhos de cache na fase de design do agente não é opcional — é essencial

O que fazer agora

Ferramentas evoluem rápido, mas também quebram rápido. Quando aparecer uma notificação de atualização, não clique na hora — confira as notas do patch antes.

Ação imediata: rode claude update e confirme que você está na v2.1.62 ou mais recente.

Aproveite seus limites recém-zerados. Tokens de graça não aparecem todo dia.

Assine a newsletter

Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.