Mensaje de Gate News, 23 de abril — El equipo de ingeniería de Anthropic confirmó que la degradación de la calidad de Claude Code reportada por los usuarios durante el mes pasado se debió a tres cambios independientes a nivel de producto, no a problemas de la API ni del modelo subyacente. Los tres problemas se solucionaron el 7 de abril, el 10 de abril y el 20 de abril, respectivamente, con la versión final ahora en v2.1.116.
El primer cambio ocurrió el 4 de marzo, cuando el equipo redujo el nivel de esfuerzo de razonamiento predeterminado para Claude Code de “high” a “medium” para abordar picos ocasionales de latencia extrema en Opus 4.6 bajo alta intensidad de razonamiento. Después de quejas generalizadas de los usuarios sobre el rendimiento reducido, el equipo revirtió el cambio el 7 de abril. El valor predeterminado actual es ahora “xhigh” para Opus 4.7 y “high” para otros modelos.
El segundo problema fue un bug introducido el 26 de marzo. El sistema estaba diseñado para borrar registros antiguos de razonamiento después de que la inactividad de la conversación superara una hora para reducir los costos de recuperación de sesión. Sin embargo, una falla en la implementación hizo que el borrado se ejecutara repetidamente en cada turno posterior en lugar de una sola vez, lo que provocó que el modelo perdiera progresivamente el contexto de razonamiento previo. Esto se manifestó como un aumento de la falta de memoria, operaciones repetidas e invocaciones anómalas de herramientas. El bug también provocó fallos de caché en cada solicitud, acelerando el consumo de la cuota de los usuarios. Dos experimentos internos no relacionados enmascararon las condiciones de reproducción, extendiendo el proceso de depuración a más de una semana. Después de la corrección el 10 de abril, el equipo revisó el código problemático usando Opus 4.7 y descubrió que Opus 4.7 podía identificar el bug, mientras que Opus 4.6 no.
El tercer cambio se lanzó el 16 de abril junto con Opus 4.7. El equipo agregó instrucciones al mensaje del sistema para reducir la salida redundante. Las pruebas internas durante varias semanas no mostraron regresión, pero después del lanzamiento la interacción con otros prompts degradó la calidad de la codificación. La evaluación extendida reveló una caída del 3% en el rendimiento tanto en Opus 4.6 como en 4.7, lo que llevó a un rollback el 20 de abril.
Estos tres cambios afectaron a diferentes grupos de usuarios en distintos momentos, y su efecto combinado creó una caída generalizada e inconsistente de la calidad, complicando el diagnóstico. Anthropic afirmó que ahora requerirá a más empleados internos que usen la misma versión pública de compilación que los usuarios, que ejecuten suites completas de evaluación del modelo para cada modificación del prompt del sistema y que implementen periodos de despliegue por etapas. Como compensación, Anthropic ha restablecido las cuotas de uso para todos los usuarios con suscripción.
Artículos relacionados
Cohere adquiere la firma alemana de IA Aleph Alpha y asegura $600M inversión para la expansión europea
Xpeng, Xiaomi Lead In-Car AI Push at Beijing Auto Show
Ex ingeniero de Seed de ByteDance: la iteración de la IA de ByteDance tarda seis meses frente a los tres meses de Google
El ingeniero de OpenAI Clive Chan cuestiona las recomendaciones de hardware de V4, citando errores y falta de claridad frente a V3
Naver lanza la beta de AI Tab mientras Google Gemini entra en el mercado de búsquedas de Corea del Sur
La contratación de ingeniería en IA en India se dispara un 59,5% y se expande más allá de los centros tecnológicos