Cloudflare experimentó una interrupción de 25 minutos el 5 de diciembre de 2025, que afectó al 28% del tráfico HTTP. El incidente fue causado por cambios de configuración para una vulnerabilidad crítica de React, lo que expuso un error en el proxy FL1 de Cloudflare.
Gran fallo de Cloudflare interrumpe servicios de internet a nivel mundial
El 5 de diciembre de 2025, Cloudflare experimentó una interrupción significativa de la red que afectó aproximadamente al 28% de todo el tráfico HTTP en la red de infraestructura global de la empresa. El incidente, que duró unos 25 minutos desde las 08:47 hasta las 09:12 UTC, provocó errores HTTP 500 generalizados en numerosos sitios web y servicios que dependen de la red de entrega de contenido y los servicios de seguridad de Cloudflare.
Causa: Un parche de seguridad que salió mal
La interrupción fue causada por cambios de configuración que Cloudflare implementó para proteger a sus clientes de una vulnerabilidad crítica en React Server Components, CVE-2025-55182. Esta vulnerabilidad, con una puntuación CVSS de 10.0 (la máxima severidad posible), permite la ejecución remota de código a través de la deserialización insegura de solicitudes maliciosas que afectan a React versiones 19.0-19.2 y Next.js versiones 15-16.
Cloudflare aumentó el tamaño del búfer de su Web Application Firewall (WAF) de 128KB a 1MB para proteger mejor a los clientes que utilizan aplicaciones React. Durante este proceso, la empresa intentó desactivar una herramienta interna de prueba de WAF que no admitía el tamaño de búfer mayor. Este cambio aparentemente menor, implementado a través del sistema de configuración global de Cloudflare, expuso un error previamente desconocido en el software proxy FL1 de la empresa.
Análisis técnico: La excepción de Lua que rompió internet
Cuando se activó el interruptor de apagado para deshabilitar la herramienta de prueba, provocó una excepción de Lua en el módulo de reglas de Cloudflare:
'[lua] Failed to run module rulesets callback late_routing: /usr/local/nginx-fl/lua/modules/init.lua:314: attempt to index field 'execute' (a nil value)'
Este error ocurrió porque el código intentó acceder a un objeto 'rule_result.execute' que no existía después de activar el interruptor de apagado. El error había existido durante años sin ser detectado en el proxy FL1 de Cloudflare, que utiliza scripting Lua. Curiosamente, el mismo error no ocurrió en el proxy FL2 más nuevo de Cloudflare, escrito en Rust, lo que subraya las ventajas de los lenguajes de programación fuertemente tipados.
Impacto y alcance
La interrupción afectó a los clientes cuyos activos web eran servidos por el proxy FL1 más antiguo de Cloudflare Y que habían implementado el Conjunto de Reglas Gestionadas de Cloudflare. Aproximadamente el 28% de todo el tráfico HTTP que pasaba por la red de Cloudflare se vio afectado, lo que provocó errores HTTP 500 para los sitios web afectados. Grandes plataformas, incluidas X (Twitter), LinkedIn, Zoom, Spotify, Discord, Canva, ChatGPT y varios intercambios de criptomonedas, informaron problemas durante el período de interrupción.
'Cualquier interrupción de nuestros sistemas es inaceptable, y sabemos que hemos vuelto a fallar a internet después del incidente del 18 de noviembre,' declaró Dane Knecht en la publicación oficial de análisis posterior al incidente de Cloudflare.
Segundo gran incidente en dos semanas
Esta interrupción del 5 de diciembre siguió a un incidente similar el 18 de noviembre de 2025, donde Cloudflare experimentó una interrupción de disponibilidad más larga que afectó a casi todos los clientes. Ambos incidentes mostraron similitudes preocupantes: fueron causados por cambios de configuración destinados a abordar problemas de seguridad, y ambos se propagaron rápidamente a través de la red global de Cloudflare.
Cloudflare, que según Wikipedia sirve aproximadamente al 19,3% de todos los sitios web, se ha convertido en una infraestructura crítica de internet. La posición de la empresa entre los usuarios y los servidores de origen significa que cuando Cloudflare experimenta problemas, incluso las aplicaciones completamente funcionales parecen rotas para los usuarios finales.
Mejoras planificadas e implicaciones para la industria
Tras ambos incidentes, Cloudflare se ha comprometido a implementar varias mejoras críticas:
- Implementaciones mejoradas y control de versiones: Implementación de sistemas de implementación gradual con validación de estado de salud para cambios de configuración.
- Procedimientos de emergencia optimizados: Asegurar que las operaciones críticas puedan continuar durante las interrupciones.
- Manejo de errores 'Fail-Open': Los sistemas volverán por defecto a estados buenos conocidos en lugar de rechazar solicitudes ante errores.
'Este tipo de incidentes, y lo cerca que ocurren, no son aceptables para una red como la nuestra,' reconoció Cloudflare en su declaración oficial.
Cronología de eventos
El incidente se desarrolló rápidamente: a las 08:47 UTC se implementó el cambio de configuración y se propagó a la red de Cloudflare. Para las 08:48, el impacto completo se sintió en los sistemas afectados. Cloudflare declaró un incidente a las 08:50 basándose en alertas automatizadas. El cambio se revirtió a las 09:11, y para las 09:12 UTC todo el tráfico se había recuperado.
La interrupción subraya el delicado equilibrio entre las mejoras de seguridad y la estabilidad del sistema en la compleja infraestructura de internet actual. Mientras Cloudflare trabaja para implementar sus mejoras prometidas, la comunidad de internet observará de cerca para garantizar que los proveedores de infraestructura crítica puedan ofrecer tanto seguridad como confiabilidad en un mundo digital cada vez más conectado.
Nederlands
English
Deutsch
Français
Español
Português