Gcore - Nube | Detalles del incidente en Londres-2 – Detalles del incidente

Sistemas funcionando con normalidad

Nube | Detalles del incidente en Londres-2

Resuelto
Interrupción mayor
Iniciado el hace alrededor de 1 mesDuró alrededor de 5 horas

Afectado

Cloud

Interrupción mayor de 9:12 AM a 11:46 AM, En funcionamiento de 11:46 AM a 1:51 PM

Compute

Interrupción mayor de 9:12 AM a 11:46 AM, En funcionamiento de 11:46 AM a 1:51 PM

Londres-2

Interrupción mayor de 9:12 AM a 11:46 AM, En funcionamiento de 11:46 AM a 1:51 PM

Baremetal

Interrupción mayor de 9:12 AM a 11:46 AM, En funcionamiento de 11:46 AM a 1:51 PM

Londres-2

Interrupción mayor de 9:12 AM a 11:46 AM, En funcionamiento de 11:46 AM a 1:51 PM

Networking

Interrupción mayor de 9:12 AM a 11:46 AM, En funcionamiento de 11:46 AM a 1:51 PM

Actualizaciones
  • Después de la muerte
    Después de la muerte

    Informe de incidente: Incidente eléctrico — Región de Londres (NDLO)

    Fecha: 28 de marzo de 2026 Región afectada: Londres-2 (NDLO) Período de impacto: 08:51 – 11:41 UTC (2 h 50 min) Estado: Resuelto

    Asunto

    El sábado 28 de marzo de 2026, la región London-2 (NDLO) de Gcore sufrió una interrupción del servicio debido a un fallo eléctrico en nuestro centro de datos de Londres. Un fallo eléctrico en la red de distribución provocó un apagón total en la zona que alberga nuestra infraestructura, lo que resultó en la indisponibilidad de los servicios de computación en la nube, redes, almacenamiento y servidores físicos en la región durante aproximadamente 2 horas y 50 minutos. El servicio se restableció por completo, seguido de un período prolongado con suministro eléctrico reducido que se resolvió por completo ese mismo día.

    Comprendemos el impacto que esto ha tenido en sus operaciones y les pedimos disculpas sinceramente por las molestias.

    Qué pasó

    A las 07:29 UTC, se produjo una falla en un componente eléctrico de la red del centro de datos, lo que provocó la interrupción del suministro eléctrico principal a nuestra infraestructura. El sistema de alimentación ininterrumpida (UPS) del centro mantuvo la carga con su batería durante aproximadamente 80 minutos, pero la conmutación a la alimentación alternativa de alta tensión tardó más de lo que la autonomía de la batería del UPS podía soportar. A las 08:49 UTC, las baterías del UPS se agotaron y la zona sufrió un apagón total.

    A las 10:32 UTC, se restableció el suministro eléctrico mediante la fuente de alta tensión alternativa y nuestra infraestructura comenzó a reactivarse. Primero se restableció la conectividad de red, seguida del plano de control en la nube y las cargas de trabajo de los clientes. A las 11:41 UTC, se confirmó el restablecimiento de todos los servicios de atención al cliente y se puso bajo estrecha supervisión.

    Durante varias horas después del restablecimiento principal, un subconjunto de gabinetes operó con una sola fuente de alimentación debido a un componente defectuoso en la ruta de distribución eléctrica. Todos los gabinetes conservaron al menos una fuente de alimentación operativa, por lo que los servicios permanecieron disponibles, pero la redundancia se redujo. A las 19:08 UTC, el sistema omitió el componente defectuoso y se restableció la alimentación redundante completa. El reemplazo de la batería del SAI se completó a las 19:20 UTC.

    Cronología (todas las horas en UTC)

    Tiempo

    Evento

    07:29

    Fallo eléctrico en la línea de alimentación; se interrumpe el suministro eléctrico principal; el SAI (Sistema de Alimentación Ininterrumpida) toma el control con la batería.

    08:49

    Se ha agotado la autonomía de la batería del SAI; se ha producido una pérdida total de energía en la zona afectada.

    08:51

    Incidente detectado por Gcore; se inicia la investigación.

    09:24

    Se ha contactado con el proveedor de las instalaciones; la respuesta in situ está en marcha.

    10:32

    Se ha restablecido el suministro eléctrico mediante una fuente de alta tensión alternativa.

    10:43 – 11:41

    Recuperación de servicio por etapas: red, plano de control en la nube, computación, hardware físico.

    11:41

    Todos los servicios de atención al cliente se han restablecido y están bajo supervisión.

    13:51

    Página de estado: incidente cerrado.

    19:08

    Se ha restablecido la redundancia total de energía en todos los gabinetes.

    Impacto

    • Servicios afectados: computación en la nube (máquinas virtuales), servidores físicos, redes en la nube, conectividad IP pública, almacenamiento en la nube y la API de la nube dentro de la región London-2 (NDLO).

    • Tiempo de inactividad visible para el cliente: aproximadamente 2 horas y 50 minutos (08:51 – 11:41 UTC).

    • Se redujo la redundancia de energía en un subconjunto de gabinetes aproximadamente entre las 08:51 UTC y las 19:08 UTC. Los servicios permanecieron disponibles durante este período.

    • Otras regiones de Gcore no se vieron afectadas.

    Causa principal

    La causa principal fue una falla eléctrica en la red del centro de datos, sumada a la insuficiencia de la autonomía de la batería del sistema de alimentación ininterrumpida (UPS) para cubrir el tiempo necesario para transferir la carga a la fuente de alimentación alternativa de alto voltaje. Una falla secundaria en un componente de la ruta de distribución de energía prolongó el período de redundancia reducida tras la restauración inicial.

    Lo que estamos haciendo

    En estrecha coordinación con nuestro socio de centro de datos, y por parte de Gcore, hemos iniciado las siguientes acciones:

    Con el proveedor de las instalaciones

    • Se solicitó un análisis completo y formal de la causa raíz que abarcara la falla eléctrica, la autonomía del SAI en comparación con el objetivo de diseño y la falla del componente secundario.

    • Seguimiento del plan de rehabilitación de las instalaciones, incluido el reemplazo de la batería del sistema de alimentación ininterrumpida (finalizado el 28 de marzo), las pruebas de resistencia y el mantenimiento preventivo.

    • Revisión de los compromisos contractuales de nivel de servicio

    Nuestro compromiso

    Estamos tratando este incidente con la máxima prioridad. La resiliencia del suministro eléctrico en el centro de datos es fundamental para nuestro servicio, y la deficiencia que puso de manifiesto este suceso —en la que la autonomía del SAI no cubrió el tiempo necesario para una transferencia de alimentación alternativa— es inaceptable para nosotros. Estamos colaborando con nuestro socio para garantizar que este fallo específico no se repita, y estamos reforzando nuestra propia arquitectura para que futuros incidentes de este tipo tengan un menor impacto en nuestros clientes.

    Si tiene preguntas sobre cómo este incidente afectó a su carga de trabajo específica, o si desea hablar sobre la compensación prevista en su contrato de servicio, póngase en contacto con el soporte técnico de Gcore.

    Gracias por su paciencia y por seguir confiando en Gcore.

  • Resuelto
    Resuelto

    Nos complace informarles que el incidente relacionado con el suministro eléctrico en el centro de datos se ha resuelto por completo y todos los servicios se han restablecido con éxito. Les proporcionaremos un análisis detallado de la causa raíz (ACR) en cuanto esté disponible.

    Si continúa experimentando algún problema, no dude en ponerse en contacto con nuestro equipo de soporte. Estaremos encantados de ayudarle y asegurarnos de que cualquier otra duda se resuelva con prontitud.

    Agradecemos su paciencia y comprensión durante este incidente, y le damos las gracias por su cooperación.

    Para obtener más ayuda, póngase en contacto con nuestro equipo de soporte a través de support@gcore.com.

  • Supervisando
    Supervisando

    Todos los servicios ya se han restablecido. Un pequeño número de servidores físicos aún se encuentran en proceso de recuperación, y nuestros equipos continúan supervisando la situación de cerca.

    Gracias por su paciencia y comprensión durante este incidente.

  • Actualizar
    Actualizar

    Hemos recibido una nueva actualización del centro de datos que confirma que el proceso de restablecimiento del suministro eléctrico ha comenzado. Algunos servicios, como la API y la red, ya están funcionando. Los servicios se están restableciendo gradualmente y los equipos en el sitio están trabajando para restaurar las operaciones por completo de la forma más rápida y segura posible.

    Comprendemos el impacto de este incidente y agradecemos enormemente su paciencia. Seguiremos compartiendo actualizaciones a medida que dispongamos de más información y una vez que se haya restablecido el servicio por completo.

  • Actualizar
    Actualizar

    Hemos recibido una actualización del centro de datos que confirma un corte de energía que afecta a las instalaciones. Los técnicos en el lugar están trabajando activamente para restablecer el suministro eléctrico lo antes posible y de forma segura. Seguiremos compartiendo actualizaciones a medida que dispongamos de más información.

  • Identificado
    Identificado

    Los ingenieros que se encuentran en el centro de datos están investigando activamente un problema de alimentación eléctrica. Estamos trabajando para solucionarlo y les informaremos de las novedades en breve.

  • Investigando
    Investigando

    Actualmente estamos experimentando una interrupción importante en nuestra red que afecta a los servicios en la nube en la región de Londres-2, lo que ha provocado la indisponibilidad total del servicio. Pedimos disculpas por cualquier inconveniente que esto pueda causar y agradecemos enormemente su paciencia y comprensión durante este momento crítico.

    Nuestro equipo de ingeniería está trabajando activamente para identificar la causa raíz e implementar una solución lo antes posible. Les mantendremos informados periódicamente sobre el progreso de la solución.

    Gracias por su comprensión y cooperación.