Panne de Cloudflare perturbe 28% du trafic web mondial

Cloudflare a subi une panne de 25 minutes le 5 décembre 2025, affectant 28% du trafic HTTP. L'incident a été causé par des modifications de configuration pour une vulnérabilité critique de React, révélant un bug dans le proxy FL1 de Cloudflare.

panne-cloudflare-trafic-web-mondial
Image for Panne de Cloudflare perturbe 28% du trafic web mondial

Une importante panne de Cloudflare perturbe les services internet mondiaux

Le 5 décembre 2025, Cloudflare a connu une panne réseau majeure qui a affecté environ 28 % de tout le trafic HTTP sur son réseau d'infrastructure mondial. L'incident, qui a duré environ 25 minutes de 08:47 à 09:12 UTC, a provoqué des erreurs HTTP 500 généralisées sur de nombreux sites web et services dépendant du réseau de diffusion de contenu et des services de sécurité de Cloudflare.

Cause : Un correctif de sécurité qui a mal tourné

La panne a été causée par des modifications de configuration que Cloudflare a mises en œuvre pour protéger ses clients contre une vulnérabilité critique dans React Server Components, CVE-2025-55182. Cette vulnérabilité, avec un score CVSS de 10.0 (la sévérité maximale), permet l'exécution de code à distance via une désérialisation non sécurisée de requêtes malveillantes affectant les versions 19.0-19.2 de React et les versions 15-16 de Next.js.

Cloudflare a augmenté la taille du tampon de son Pare-feu d'Application Web (WAF) de 128 Ko à 1 Mo pour mieux protéger les clients utilisant des applications React. Lors de ce processus, l'entreprise a tenté de désactiver un outil de test WAF interne qui ne prenait pas en charge la taille de tampon accrue. Ce changement apparemment mineur, implémenté via le système de configuration global de Cloudflare, a révélé un bug jusque-là inconnu dans le logiciel proxy FL1 de l'entreprise.

Analyse technique : L'exception Lua qui a cassé internet

Lorsque l'interrupteur d'arrêt a été activé pour désactiver l'outil de test, cela a provoqué une exception Lua dans le module de règles de Cloudflare :

'[lua] Failed to run module rulesets callback late_routing: /usr/local/nginx-fl/lua/modules/init.lua:314: attempt to index field 'execute' (a nil value)'

Cette erreur est survenue car le code tentait d'accéder à un objet 'rule_result.execute' qui n'existait pas après l'activation de l'interrupteur d'arrêt. Le bug existait depuis des années, inaperçu, dans le proxy FL1 de Cloudflare, qui utilise le scripting Lua. Fait intéressant, la même erreur ne s'est pas produite dans le proxy FL2 plus récent de Cloudflare, écrit en Rust, ce qui souligne les avantages des langages de programmation fortement typés.

Impact et étendue

La panne a touché les clients dont les ressources web étaient servies par l'ancien proxy FL1 de Cloudflare ET qui avaient implémenté le jeu de règles géré par Cloudflare. Environ 28 % de tout le trafic HTTP passant par le réseau de Cloudflare a été affecté, provoquant des erreurs HTTP 500 pour les sites web touchés. De grandes plateformes, notamment X (Twitter), LinkedIn, Zoom, Spotify, Discord, Canva, ChatGPT et plusieurs bourses de cryptomonnaies ont signalé des problèmes pendant la période de panne.

'Toute panne de nos systèmes est inacceptable, et nous savons que nous avons encore laissé tomber internet après l'incident du 18 novembre,' a déclaré Dane Knecht dans le billet de blog post-mortem officiel de Cloudflare.

Deuxième incident majeur en deux semaines

Cette panne du 5 décembre a suivi un incident similaire le 18 novembre 2025, où Cloudflare a subi une interruption de disponibilité plus longue touchant presque tous les clients. Les deux incidents présentaient des similitudes inquiétantes : ils ont été causés par des modifications de configuration destinées à résoudre des problèmes de sécurité, et tous deux se sont propagés rapidement via le réseau mondial de Cloudflare.

Cloudflare, qui selon Wikipedia dessert environ 19,3 % de tous les sites web, est devenu une infrastructure internet critique. La position de l'entreprise entre les utilisateurs et les serveurs d'origine signifie que lorsque Cloudflare rencontre des problèmes, même des applications parfaitement fonctionnelles semblent cassées pour les utilisateurs finaux.

Améliorations planifiées et implications pour le secteur

À la suite des deux incidents, Cloudflare s'est engagé à mettre en œuvre plusieurs améliorations critiques :

  • Déploiements améliorés & gestion des versions : Mise en œuvre de systèmes de déploiement progressif avec validation de l'intégrité pour les changements de configuration.
  • Procédures d'urgence rationalisées : S'assurer que les opérations critiques restent possibles pendant les pannes.
  • Gestion des erreurs 'Fail-Open' : Les systèmes reviendront par défaut à des états connus comme bons plutôt que de refuser les requêtes en cas d'erreur.

'Ce type d'incidents, et leur proximité dans le temps, ne sont pas acceptables pour un réseau comme le nôtre,' a reconnu Cloudflare dans sa déclaration officielle.

Chronologie des événements

L'incident s'est déroulé rapidement : à 08:47 UTC, la modification de configuration a été implémentée et diffusée sur le réseau de Cloudflare. Vers 08:48, l'impact complet s'est fait sentir dans les systèmes touchés. Cloudflare a déclaré un incident à 08:50 sur la base d'alertes automatisées. La modification a été annulée à 09:11, et à 09:12 UTC, tout le trafic était rétabli.

La panne souligne l'équilibre délicat entre les améliorations de sécurité et la stabilité du système dans l'infrastructure internet complexe d'aujourd'hui. Alors que Cloudflare travaille à mettre en œuvre ses améliorations promises, la communauté internet surveillera de près pour s'assurer que les fournisseurs d'infrastructure critiques peuvent offrir à la fois sécurité et fiabilité dans un monde numérique de plus en plus connecté.

Vous aimerez peut-être aussi