# Claude Code acaba de restablecer los límites semanales de todos a cero — Esto es lo que pasó > Author: Tony Lee > Published: 2026-03-03 > URL: https://tonylee.im/es/blog/claude-code-weekly-limit-reset-auto-memory-bug/ > Reading time: 3 minutes > Language: es > Tags: claude-code, ai, developer-tools, anthropic, debugging ## Description Una condición de carrera entre Auto Memory y la compresión de contexto en Claude Code v2.1.59–v2.1.61 rompió la caché de prompts y corrompió las sesiones. Anthropic restableció los límites semanales de todos los usuarios como compensación. ## Content Tu límite semanal de Claude Code acaba de restablecerse a cero. Todo el cupo, recargado de una vez. Hace un rato revisé mi consumo y no daba crédito. Un límite semanal que había gastado en más de un 80 % había vuelto a cero de repente. Resultó ser una compensación por un bug. Thariq, el responsable de Claude Code en Anthropic, publicó un anuncio hace aproximadamente una hora: restablecimiento de los límites semanales para todos los usuarios. Lo que hay detrás merece la pena conocerlo. ## Qué ocurrió A partir de la v2.1.59, Claude Code incorporó la funcionalidad Auto Memory. El problema fue que esta función y el sistema de compresión de contexto (compaction) existente accedían simultáneamente al mismo almacén de conversaciones, provocando un conflicto. La caché de prompts dejó de funcionar correctamente, lo que disparó el consumo de tokens de forma anómala. - Versiones afectadas: v2.1.59 a v2.1.61 - Parche desplegado: v2.1.62 - Medida: restablecimiento completo de los límites semanales ## Los síntomas fueron graves No se trataba simplemente de que el límite se agotase más rápido. Los usuarios informaron de corrupción de contexto en mitad de las sesiones: partes anteriores de las conversaciones se truncaban o, peor aún, fragmentos de sesiones completamente distintas se colaban en la sesión actual. El propio comando `/compact` devolvía resultados corruptos con Auto Memory activado. Llamémoslo «enredo de contexto»: la IA confundía la conversación actual con conversaciones pasadas. - Desaparición o truncamiento de la parte inicial de las conversaciones en mitad de la sesión - Aparición de fragmentos de sesiones anteriores en la sesión activa - Desalineación de los límites de mensajes al ejecutarse Auto Memory y Auto Compaction simultáneamente - Bugs de compresión similares ya se habían dado en las versiones v2.1.47, v2.1.21 y v2.1.14 ## La causa real: una condición de carrera El sistema Auto Memory y la lógica de compresión de contexto leían y escribían simultáneamente en el mismo almacén de mensajes. Cuando la sincronización se desajustaba, el mecanismo de guardado automático sobrescribía el estado actual con datos obsoletos. El hecho de que la lógica de compresión muestre vulnerabilidades de forma recurrente apunta a la necesidad de una mejora estructural profunda. - Problema central: conflicto de lectura/escritura concurrente (race condition) - Factor agravante: el guardado automático sobrescribe el estado actual con datos obsoletos ## La caché de prompts se rompe más fácilmente de lo que crees Si estás construyendo agentes de IA, presta especial atención a este punto. Cuando la caché de prompts falla en una herramienta de programación basada en agentes, el coste y la velocidad se desploman a la vez. El propio Anthropic ha reconocido que «la caché regresa con una facilidad sorprendente». Si no diseñas la arquitectura de tu agente pensando en la estabilidad de la caché desde el principio, este tipo de incidentes se repetirán. - Una caché rota implica un consumo de tokens 2-3 veces mayor para el mismo trabajo - Fijar las rutas de caché en la fase de diseño del agente no es opcional, es imprescindible ## Qué deberías hacer ahora Las herramientas mejoran deprisa, pero también se rompen deprisa. Cuando aparezca una notificación de actualización, no pulses de inmediato: revisa primero las notas del parche. Acción inmediata: ejecuta `claude update` y comprueba que estás en la v2.1.62 o superior. Disfruta de tus límites recién restablecidos. Los tokens gratis no se dan todos los días. --- Author: Tony Lee | Website: https://tonylee.im For more articles, visit: https://tonylee.im/es/blog/ This content is original and authored by Tony Lee. Please attribute when quoting or referencing.