Gcore - Chmura | Szczegóły incydentu London-2 – Szczegóły incydentu

Wszystkie systemy sprawne

Chmura | Szczegóły incydentu London-2

Rozwiązany
Poważna awaria
Wystąpił w dniu około miesiąc temuTrwało około 5 godzin

Dotknięty

Cloud

Poważna awaria z 9:12 AM do 11:46 AM, Poprawne działanie z 11:46 AM do 1:51 PM

Compute

Poważna awaria z 9:12 AM do 11:46 AM, Poprawne działanie z 11:46 AM do 1:51 PM

Londyn-2

Poważna awaria z 9:12 AM do 11:46 AM, Poprawne działanie z 11:46 AM do 1:51 PM

Baremetal

Poważna awaria z 9:12 AM do 11:46 AM, Poprawne działanie z 11:46 AM do 1:51 PM

Londyn-2

Poważna awaria z 9:12 AM do 11:46 AM, Poprawne działanie z 11:46 AM do 1:51 PM

Networking

Poważna awaria z 9:12 AM do 11:46 AM, Poprawne działanie z 11:46 AM do 1:51 PM

Aktualizacje
  • Po śmierci
    Po śmierci

    Raport o zdarzeniu: Awaria zasilania — region Londyn (NDLO)

    Data: 28 marca 2026 r. Region objęty awarią: Londyn-2 (NDLO) Okno wpływu: 08:51 – 11:41 UTC (2 godz. 50 min) Status: rozwiązany

    Wydanie

    W sobotę, 28 marca 2026 roku, w regionie Londyn-2 (NDLO) firmy Gcore doszło do przerwy w dostawie prądu spowodowanej awarią zasilania w naszym centrum danych w Londynie. Awaria elektryczna w centrum danych doprowadziła do całkowitej utraty zasilania w obszarze, w którym znajduje się nasza infrastruktura. W rezultacie usługi chmury obliczeniowej, sieci, pamięci masowej i usług bare metal w regionie były niedostępne przez około 2 godziny i 50 minut. Pełne działanie zostało przywrócone, po czym nastąpił dłuższy okres ograniczonej redundancji zasilania, który został w pełni rozwiązany jeszcze tego samego dnia.

    Zdajemy sobie sprawę z wpływu, jaki ta sytuacja miała na Państwa działalność i szczerze przepraszamy za utrudnienia.

    Co się stało

    O godzinie 07:29 UTC doszło do awarii w elemencie elektrycznym w centrum danych, co spowodowało wyłączenie głównego źródła zasilania naszej infrastruktury. Zasilacz awaryjny (UPS) w obiekcie zasilał akumulatory przez około 80 minut, ale przełączenie na alternatywne źródło wysokiego napięcia trwało dłużej, niż pozwalała na to dostępna autonomia akumulatorów UPS. O godzinie 08:49 UTC akumulatory UPS uległy rozładowaniu, a obszar uległ całkowitej utracie zasilania.

    O godzinie 10:32 UTC obiekt przywrócił zasilanie za pomocą alternatywnego źródła wysokiego napięcia, a nasza infrastruktura zaczęła się ponownie uruchamiać. Najpierw przywrócono łączność sieciową, a następnie płaszczyznę sterowania chmurą i obciążenia klientów. Do godziny 11:41 UTC potwierdzono przywrócenie wszystkich usług dla klientów i objęto je ścisłym monitoringiem.

    Przez kilka godzin po głównym przywróceniu zasilania część szaf pracowała na jednym zasilaniu z powodu awarii jednego podzespołu w torze dystrybucji zasilania. Wszystkie szafy zachowały co najmniej jedno sprawne źródło zasilania, więc zasilanie było nadal dostępne, ale redundancja została ograniczona. O godzinie 19:08 UTC obiekt ominął uszkodzony podzespół, a pełne redundancyjne zasilanie zostało przywrócone. Wymiana baterii UPS została zakończona o godzinie 19:20 UTC.

    Oś czasu (wszystkie godziny UTC)

    Czas

    Wydarzenie

    07:29

    Awaria instalacji elektrycznej w górnym odcinku sieci; wyłączenie głównego źródła zasilania; UPS przejmuje zasilanie z akumulatora.

    08:49

    Wyczerpanie baterii UPS; całkowita utrata zasilania w zagrożonym obszarze.

    08:51

    Incydent wykryty przez Gcore; rozpoczyna się dochodzenie.

    09:24

    Zaangażowano dostawcę usług; trwa reakcja na miejscu.

    10:32

    Zasilanie przywrócone za pomocą alternatywnego źródła wysokiego napięcia.

    10:43 – 11:41

    Etapowe odzyskiwanie usług: sieć, płaszczyzna sterowania chmurą, obliczenia, goły metal.

    11:41

    Wszystkie usługi skierowane do klientów zostały przywrócone i są monitorowane.

    13:51

    Strona ze statusem incydentu została zamknięta.

    19:08

    Przywrócono pełną redundancję zasilania we wszystkich szafach.

    Uderzenie

    • Dotknięte zostaną następujące usługi: przetwarzanie w chmurze (maszyny wirtualne), serwery, sieci w chmurze, łączność za pośrednictwem publicznego adresu IP, przechowywanie w chmurze oraz interfejs API chmury w regionie Londyn-2 (NDLO).

    • Czas przestoju widoczny dla klienta: około 2 godzin i 50 minut (08:51 – 11:41 UTC).

    • Zmniejszona redundancja zasilania w podzbiorze szaf od około 08:51 UTC do 19:08 UTC. Usługi były dostępne w tym czasie.

    • Inne regiony Gcore nie zostały dotknięte.

    Przyczyna główna

    Podstawową przyczyną była awaria elektryczna w centrum danych, a także niewystarczająca autonomia baterii UPS, aby zniwelować czas potrzebny na przeniesienie obciążenia do alternatywnego źródła zasilania wysokiego napięcia. Awaria podzespołu wtórnego w torze dystrybucji zasilania wydłużyła okres zmniejszonej redundancji po początkowym przywróceniu zasilania.

    Co robimy

    W ścisłej współpracy z naszym partnerem w zakresie centrów danych oraz firmą Gcore podjęliśmy następujące działania:

    Z dostawcą obiektu

    • Poproszono o pełną, formalną analizę przyczyn źródłowych obejmującą usterkę elektryczną, autonomię UPS w stosunku do założeń projektowych oraz awarię podzespołów wtórnych.

    • Monitorowanie planu naprawczego obiektu, obejmującego wymianę baterii UPS (zakończoną 28 marca), testowanie odporności i konserwację zapobiegawczą.

    • Przeglądanie zobowiązań umownych dotyczących poziomu usług

    Nasze zaangażowanie

    Traktujemy ten incydent priorytetowo. Odporność na zakłócenia zasilania na poziomie centrum danych jest podstawą naszych usług, a luka ujawniona przez to zdarzenie – gdzie autonomia UPS-ów nie pokryła czasu potrzebnego na przełączenie na alternatywne źródło zasilania – jest dla nas nie do zaakceptowania. Współpracujemy z naszym partnerem w zakresie infrastruktury, aby zapobiec powtórzeniu się tego konkretnego typu awarii, a także niezależnie wzmacniamy naszą architekturę, aby przyszłe zdarzenia tego typu miały mniejszy wpływ na naszych klientów.

    Jeśli masz pytania dotyczące wpływu tego incydentu na Twoje konkretne obciążenia pracą lub chcesz omówić kwestię odszkodowania w ramach umowy o świadczenie usług, skontaktuj się z pomocą techniczną Gcore.

    Dziękujemy za cierpliwość i nieustające zaufanie do Gcore.

  • Rozwiązany
    Rozwiązany

    Z przyjemnością informujemy, że awaria zasilania w centrum danych została w pełni rozwiązana, a wszystkie usługi zostały pomyślnie przywrócone. Szczegółową analizę przyczyn źródłowych (RCA) przedstawimy, gdy tylko będzie dostępna.

    Jeśli nadal będziesz mieć jakiekolwiek problemy, skontaktuj się z naszym zespołem wsparcia. Z przyjemnością Ci pomożemy i dopilnujemy, aby wszelkie dalsze kwestie zostały niezwłocznie rozwiązane.

    Doceniamy Państwa cierpliwość i zrozumienie w związku z tym incydentem i dziękujemy za współpracę.

    Aby uzyskać dalszą pomoc, skontaktuj się z naszym zespołem wsparcia pod adresem support@gcore.com

  • Monitorowanie
    Monitorowanie

    Wszystkie usługi zostały już przywrócone. Niewielka liczba serwerów fizycznych jest nadal w trakcie odzyskiwania, a nasze zespoły nadal uważnie monitorują sytuację.

    Dziękujemy za cierpliwość i zrozumienie w czasie trwania tego incydentu.

  • Aktualizacja
    Aktualizacja

    Otrzymaliśmy kolejną aktualizację z centrum danych potwierdzającą rozpoczęcie procesu przywracania zasilania. Niektóre usługi, takie jak API i sieć, działają już bez zarzutu. Usługi są przywracane stopniowo, a zespoły na miejscu pracują nad jak najszybszym i najbezpieczniejszym przywróceniem pełnej sprawności operacyjnej.

    Rozumiemy skutki tego incydentu i bardzo dziękujemy za Państwa cierpliwość. Będziemy publikować aktualizacje w miarę pojawiania się nowych informacji i przywracania pełnej obsługi.

  • Aktualizacja
    Aktualizacja

    Otrzymaliśmy aktualizację z centrum danych potwierdzającą przerwę w dostawie prądu na terenie obiektu. Inżynierowie na miejscu aktywnie pracują nad jak najszybszym i najbezpieczniejszym przywróceniem zasilania. Będziemy publikować aktualizacje w miarę pojawiania się nowych informacji.

  • Zidentyfikowany
    Zidentyfikowany

    Inżynierowie na miejscu aktywnie badają problem z zasilaniem w centrum danych. Pracujemy nad jego rozwiązaniem i wkrótce przekażemy najnowsze informacje.

  • Analiza
    Analiza

    Obecnie doświadczamy poważnej awarii naszej sieci, która wpływa na usługi chmurowe w regionie Londyn-2, co skutkuje całkowitą niedostępnością usługi. Serdecznie przepraszamy za wszelkie niedogodności i dziękujemy za cierpliwość oraz zrozumienie w tym trudnym czasie.

    Nasz zespół inżynierów aktywnie pracuje nad identyfikacją przyczyny problemu i jak najszybszym wdrożeniem rozwiązania. Będziemy regularnie informować o postępach prac nad rozwiązaniem problemu.

    Dziękujemy za Państwa zrozumienie i współpracę.