Concernés
Panne majeure depuis 9:12 AM à 11:46 AM, Opérationnel depuis 11:46 AM à 1:51 PM
Panne majeure depuis 9:12 AM à 11:46 AM, Opérationnel depuis 11:46 AM à 1:51 PM
Panne majeure depuis 9:12 AM à 11:46 AM, Opérationnel depuis 11:46 AM à 1:51 PM
Panne majeure depuis 9:12 AM à 11:46 AM, Opérationnel depuis 11:46 AM à 1:51 PM
Panne majeure depuis 9:12 AM à 11:46 AM, Opérationnel depuis 11:46 AM à 1:51 PM
Panne majeure depuis 9:12 AM à 11:46 AM, Opérationnel depuis 11:46 AM à 1:51 PM
- PostmortemPostmortem
Rapport d'incident : Incident électrique — Région de Londres (NDLO)
Date : 28 mars 2026 Région concernée : Londres-2 (NDLO) Période d'impact : 08:51 – 11:41 UTC (2 h 50 min) Statut : Résolu
Problème
Le samedi 28 mars 2026, la région Londres-2 (NDLO) de Gcore a subi une interruption de service suite à un incident électrique dans notre centre de données londonien. Un défaut électrique en amont a entraîné une coupure de courant totale dans la zone hébergeant notre infrastructure, rendant indisponibles les services de calcul cloud, de réseau, de stockage et d'hébergement physique pendant environ 2 heures et 50 minutes. Le service a été entièrement rétabli, suivi d'une période prolongée de redondance électrique réduite, résolue définitivement plus tard dans la journée.
Nous comprenons l'impact que cela a eu sur vos opérations et nous vous présentons nos sincères excuses pour la perturbation occasionnée.
Ce qui s'est passé
À 7 h 29 UTC, un défaut est survenu dans un composant électrique en amont du centre de données, provoquant la coupure de l'alimentation principale de notre infrastructure. Le système d'alimentation sans coupure (ASI) a pris le relais sur batterie pendant environ 80 minutes, mais la commutation vers l'alimentation haute tension de secours a pris plus de temps que l'autonomie disponible des batteries de l'ASI. À 8 h 49 UTC, les batteries de l'ASI étaient épuisées et la zone a subi une panne de courant totale.
À 10 h 32 UTC, l'alimentation électrique a été rétablie grâce à l'alimentation haute tension de secours, et notre infrastructure a commencé à se remettre en service. La connectivité réseau a été rétablie en premier, suivie par la plateforme de contrôle cloud et les charges de travail des clients. À 11 h 41 UTC, le rétablissement de tous les services destinés aux clients a été confirmé et ces services font l'objet d'une surveillance étroite.
Pendant plusieurs heures après le rétablissement du réseau principal, certains équipements ont fonctionné sur une seule alimentation en raison d'un composant défectueux sur le circuit de distribution électrique. Tous les équipements conservaient au moins une source d'alimentation fonctionnelle, assurant ainsi la continuité des services, mais la redondance était réduite. À 19h08 UTC, le composant défectueux a été court-circuité et l'alimentation redondante complète a été rétablie. Le remplacement des batteries de l'onduleur a été achevé à 19h20 UTC.
Chronologie (toutes les heures sont en UTC)
Temps
Événement
07:29
Défaut électrique en amont ; coupure de l’alimentation principale ; l’onduleur prend le relais sur batterie.
08:49
Autonomie de la batterie de l'onduleur épuisée ; coupure de courant totale dans la zone affectée.
08:51
Incident détecté par Gcore ; une enquête est en cours.
09:24
Le prestataire de services a été contacté ; une intervention sur site est en cours.
10:32
L'alimentation électrique a été rétablie grâce à une alimentation haute tension alternative.
10:43 – 11:41
Reprise de service par étapes : réseau, plan de contrôle cloud, calcul, serveur physique.
11:41
Tous les services destinés à la clientèle sont rétablis et sous surveillance.
13:51
Page d'état : incident clos.
19:08
La redondance électrique totale est rétablie dans toutes les armoires.
Impact
Services concernés : calcul en nuage (VM), serveurs physiques, réseau en nuage, connectivité IP publique, stockage en nuage et API en nuage dans la région Londres-2 (NDLO).
Temps d'indisponibilité visible pour le client : environ 2 heures 50 minutes (08:51 – 11:41 UTC).
Réduction de la redondance électrique dans un sous-ensemble d'armoires entre 8 h 51 UTC et 19 h 08 UTC environ. Les services sont restés disponibles pendant cette période.
Les autres régions Gcore n'ont pas été affectées.
Cause première
La cause première était un défaut électrique en amont du centre de données, combiné à une autonomie insuffisante des batteries de l'onduleur pour permettre le transfert de la charge vers l'alimentation haute tension de secours. Un second défaut sur le réseau de distribution électrique a prolongé la période de redondance réduite après le rétablissement initial.
Ce que nous faisons
En étroite coordination avec notre partenaire de centre de données et du côté de Gcore, nous avons entrepris les actions suivantes :
Avec le fournisseur d'installations
Nous avons demandé une analyse complète et formelle des causes profondes, couvrant la panne électrique, l'autonomie de l'onduleur par rapport à l'objectif de conception et la défaillance des composants secondaires.
Suivi du plan de remise en état de l'installation, y compris le remplacement de la batterie de l'onduleur (terminé le 28 mars), les tests de résilience et la maintenance préventive.
Examen des engagements contractuels en matière de niveau de service
Notre engagement
Nous traitons cet incident avec la plus grande priorité. La fiabilité de l'alimentation électrique au niveau des centres de données est essentielle à notre service, et la défaillance révélée par cet événement – où l'autonomie de l'onduleur n'a pas permis le basculement vers une alimentation de secours le temps nécessaire – est inacceptable. Nous collaborons avec notre partenaire d'infrastructure pour garantir que ce type de panne ne se reproduise pas, et nous renforçons également notre propre architecture afin de minimiser l'impact de futurs incidents similaires sur nos clients.
Si vous avez des questions sur l'impact de cet incident sur vos charges de travail spécifiques, ou si vous souhaitez discuter d'une indemnisation en vertu de votre contrat de service, veuillez contacter le support Gcore.
Merci de votre patience et de votre confiance continue envers Gcore.
- RésoluRésolu
Nous avons le plaisir de vous informer que l'incident d'alimentation électrique survenu dans le centre de données est entièrement résolu et que tous les services sont de nouveau opérationnels. Une analyse détaillée des causes profondes (ACR) vous sera communiquée dès qu'elle sera disponible.
Si vous rencontrez toujours des problèmes, n'hésitez pas à contacter notre équipe d'assistance. Elle se fera un plaisir de vous aider et de répondre rapidement à toutes vos questions.
Nous vous remercions de votre patience et de votre compréhension tout au long de cet incident, et nous vous remercions de votre coopération.
Pour obtenir de l'aide supplémentaire, veuillez contacter notre équipe d'assistance à l'adresse support@gcore.com
- SurveilléSurveillé
Tous les services sont désormais rétablis. Un petit nombre de serveurs physiques sont encore en cours de récupération, et nos équipes continuent de suivre la situation de près.
Merci de votre patience et de votre compréhension tout au long de cet incident.
- Mettre à jourMettre à jour
Nous avons reçu de nouvelles informations du centre de données confirmant que le processus de rétablissement du courant a commencé. Certains services, comme l'API et le réseau, sont de nouveau opérationnels. Le rétablissement des services se fait progressivement et les équipes sur place travaillent à rétablir l'ensemble des opérations aussi rapidement et en toute sécurité que possible.
Nous comprenons les conséquences de cet incident et vous remercions de votre patience. Nous vous tiendrons informés dès que nous aurons plus d'informations et dès que le service sera pleinement rétabli.
- Mettre à jourMettre à jour
Nous avons reçu un message du centre de données confirmant une panne de courant affectant le site. Nos techniciens sur place travaillent activement à rétablir le courant au plus vite et en toute sécurité. Nous vous tiendrons informés dès que nous aurons plus d'informations.
- IdentifiéIdentifié
Nos ingénieurs sur place enquêtent actuellement sur un problème d'alimentation électrique au sein du centre de données. Nous mettons tout en œuvre pour le résoudre et vous tiendrons informés prochainement.
- DétectéDétecté
Nous rencontrons actuellement une panne majeure de notre réseau affectant les services cloud dans la région de Londres-2, ce qui entraîne une indisponibilité totale du service. Nous vous prions de nous excuser pour la gêne occasionnée et vous remercions de votre patience et de votre compréhension durant cette période critique.
Notre équipe d'ingénieurs travaille activement à identifier la cause du problème et à le résoudre au plus vite. Nous vous tiendrons régulièrement informés de l'avancement de la résolution.
Merci de votre compréhension et de votre coopération.

