
Rola technologii operacyjnych w ośrodkach przetwarzania danych. Bez OT nie ma data center

- Damian Nowaczyk
- Zastępca Dyrektora Działu Data Center ds. Programowania i Automatyki
Mówiąc o centrach danych, zazwyczaj myślimy o serwerach, pamięci masowej i sieciach. To jednak tylko część obrazu data center. Równie ważne, choć mniej widoczne, są systemy OT (Operational Technology), które odpowiadają za nieprzerwaną pracę infrastruktury fizycznej. To one zapewniają stabilne zasilanie, odpowiednie warunki środowiskowe, bezpieczeństwo obiektu i stałe monitorowanie kluczowych parametrów. Bez sprawnie działających rozwiązań OT trudno byłoby utrzymać niemal stuprocentową dostępność usług – wymaganą przez klientów profesjonalnych ośrodków przetwarzania danych.
Choć IT i OT funkcjonują w jednym ekosystemie, ich priorytety i sposób działania są inne. IT w dużej mierzę skupia się na danych i aplikacjach, a OT – na procesach fizycznych. IT ewoluuje dynamicznie: cykle życia rozwiązań mierzy się w kilku latach, a reakcje systemów następują w ciągu sekund. OT projektowane jest na dekady i wymaga reakcji w ułamkach sekund. Zaawansowane systemy zarządzania infrastrukturą fizyczną integrują się z IT, wykorzystując narzędzia analityczne, sztuczną inteligencję i rozwiązania cyberbezpieczeństwa, a także wspierając spełnianie nowych wymogów regulacyjnych.
Warstwy systemów OT
Technologie OT obejmują całą infrastrukturę fizyczną centrum danych: od stacji transformatorowych, systemów UPS i generatorów, po zaawansowane układy chłodzenia i HVAC (Heating, Ventilation and Air Conditioning). Istotne znaczenie mają również systemy kontroli dostępu, instalacje przeciwpożarowe czy mechanizmy redundancji. Wszystkie te elementy łączy w spójną całość BMS (Building Management System) i DCIM (Data Center Infrastructure Management), które stanowią centrum zarządzania data center. To dzięki nim operatorzy mają bieżący wgląd w pracę podsystemów, mogą szybko analizować dane i podejmować właściwe decyzje.
Systemy OT zwykle działają w trzech warstwach. Najniższa to czujniki, siłowniki i urządzenia wykonawcze, które zbierają dane w czasie rzeczywistym. Wyżej funkcjonują sterowniki PLC lub lokalne kontrolery urządzeń, odpowiedzialne za algorytmy automatyki, redundancję i bieżące sterowanie. Na szczycie znajduje się warstwa nadzoru – systemy SCADA, BMS czy w naszym przypadku Polcom IIMS, które integrują dane, wizualizują pracę instalacji i wspierają operatorów rekomendacjami. Przykładowo, gdy rośnie obciążenie serwerów i temperatura w serwerowni, sensory natychmiast to rejestrują, sterowniki lub kontrolery zwiększają moc chłodzenia, a system nadzoru informuje operatora i sugeruje kolejne działania. Ostateczna decyzja należy jednak do człowieka – system wspiera, ale nie zastępuje jego roli.
Celem hakerów nie jest już tylko IT
Rosnące znaczenie OT sprawia, że systemy te coraz częściej stają się celem cyberataków. Tradycyjnie były projektowane jako odseparowane od sieci IT i Internetu, co stanowiło ich naturalną ochronę. W erze konwergencji IT/OT i rosnącej łączności powierzchnia ataków istotnie się rozszerzyła, dlatego szczególnym zadaniem jest takie projektowanie i zarządzanie infrastrukturą, aby ryzyka minimalizować i nie dopuścić do ich wykorzystania. Potencjalne zagrożenia obejmują ransomware blokujące sterowniki, manipulacje protokołami przemysłowymi czy długotrwałe kampanie szpiegowskie. Do tego dochodzą również ryzyka fizyczne, takie jak sabotaż czy nieautoryzowany dostęp. Odpowiedzią są wielowarstwowe strategie obrony: segmentacja sieci, wykrywanie anomalii w ruchu przemysłowym, zarządzanie dostępami w oparciu o MFA i zasadę najmniejszych uprawnień oraz regularne testy planów awaryjnych.

Jak AI wspiera systemy OT
Równocześnie rośnie rola automatyzacji i sztucznej inteligencji. Analiza danych z tysięcy czujników pozwala przewidywać usterki, zanim się pojawią, optymalizować zużycie energii i ograniczać ryzyko awarii. Algorytmy wykrywają nietypowe wzorce i sygnalizują operatorom potencjalne zagrożenia. AI nie wyręcza jednak człowieka – podpowiada rozwiązania i pozwala szybciej reagować, wspierając zespoły inżynierów w podejmowaniu trafnych decyzji.
Równie istotnym czynnikiem są regulacje. Dyrektywa NIS2 klasyfikuje centra danych jako infrastrukturę krytyczną, nakładając na operatorów obowiązki segmentacji sieci, raportowania incydentów w trybie 24h/72h/30 dni, prowadzenia testów penetracyjnych oraz opracowywania planów ciągłości działania. To wymusza odejście od dawnego modelu security by obscurity i wdrożenie zasad zero trust również w warstwie OT. Systemy OT coraz częściej integruje się z platformami cyberbezpieczeństwa, a personel musi rozwijać kompetencje zarówno w IT, jak i OT.
Co dalej z OT?
Przyszłość przynosi kolejne wyzwania. Edge computing wymaga bardziej zaawansowanego zdalnego zarządzania, a technologie 5G i IoT otwierają nowe możliwości komunikacji, choć jednocześnie zwiększają powierzchnię ataków. Coraz ważniejszy staje się zrównoważony rozwój – OT wspiera cele Net Zero poprzez redukcję zużycia energii i śladu węglowego. Na znaczeniu zyskują też technologie transformacyjne: cyfrowe bliźniaki pozwalające symulować scenariusze, blockchain chroniący integralność danych operacyjnych oraz przygotowania do wyzwań ery komputerów kwantowych.
Systemy OT nie są już zapleczem technicznym. Stały się podstawą stabilności, bezpieczeństwa i konkurencyjności centrów danych. Decydują o poziomie SLA, efektywności kosztowej i zgodności z regulacjami. Najwięcej zyskają ci operatorzy, którzy traktują OT nie tylko jako narzędzie utrzymania, ale także jako platformę innowacji i rozwoju – wspierającą człowieka w podejmowaniu lepszych decyzji i budowaniu trwałej przewagi na rynku.