Wdrożenie sztucznej inteligencji i wymogi ciągłości działania: Co powinna wiedzieć kadra kierownicza

24/09/2025
Andrew Hay

Sztuczna inteligencja jest obecnie integralną częścią europejskich strategii biznesowych. Wyzwaniem dla kadry kierowniczej jest wykorzystanie możliwości sztucznej inteligencji w zakresie zwiększania odporności przy jednoczesnym zapewnieniu pełnej zgodności z rygorystycznymi przepisami UE dotyczącymi ciągłości działania i odzyskiwania danych po awarii. Ustawa o cyfrowej odporności operacyjnej (DORA), dyrektywa NIS2 i RODO wymagają odpowiedzialności, przejrzystości i wykazania odporności. Sztuczna inteligencja może być atutem, ale może również wprowadzić nowe luki w zakresie zgodności, jeśli nie jest prawidłowo zarządzana.

Kotwice regulacyjne UE zapewniające ciągłość

  • Ustawa o cyfrowej odporności operacyjnej (DORA): Instytucje finansowe i krytyczni dostawcy ICT muszą wykazać swoją zdolność do wytrzymywania i odzyskiwania sprawności po zakłóceniach ICT. Obejmuje to zarządzanie ryzykiem ICT, zgłaszanie incydentów, testowanie odporności i nadzór nad dostawcami.
  • Dyrektywa NIS2: Rozszerza wymogi dotyczące odporności cybernetycznej w sektorach takich jak energetyka, opieka zdrowotna, transport i infrastruktura cyfrowa.
  • RODO: Wymaga, aby dane osobowe pozostały poufne, integralne i dostępne. To pośrednio wiąże inicjatywy AI z solidnymi planami ciągłości, ponieważ modele AI często przetwarzają wrażliwe dane, które muszą być chronione podczas zakłóceń.

Jak sztuczna inteligencja wzmacnia ciągłość działania i odzyskiwanie danych

Sztuczna inteligencja przynosi wymierne usprawnienia w planowaniu odporności:

  • Szybsze wykrywanie anomalii i reagowanie na nie w ekosystemach IT i dostawców.
  • Zautomatyzowana orkiestracja odzyskiwania, przyspieszająca przywracanie usług.
  • Symulacja scenariuszy na dużą skalę, umożliwiająca przeprowadzanie testów warunków skrajnych zgodnie z wymogami DORA.
  • Cyberobrona wzmocniona sztuczną inteligencją, poprawiająca wykrywanie włamań i reagowanie na incydenty.

Jak zauważono w naszym artykuleDlaczego odporna infrastruktura sieciowa ma kluczowe znaczenie w erze sztucznej inteligencji?sieci muszą się dostosowywać, samodzielnie monitorować i wykrywać zagrożenia. Sztuczna inteligencja wzmacnia te możliwości, czyniąc plany ciągłości bardziej wiarygodnymi dla organów regulacyjnych.

Gdzie sztuczna inteligencja komplikuje zgodność

Chociaż sztuczna inteligencja zwiększa odporność na wiele sposobów, jej przyjęcie wiąże się również z ryzykiem, którego rady nadzorcze nie mogą ignorować. Wyzwania te są szczególnie dotkliwe na regulowanych rynkach UE, gdzie przejrzystość, odpowiedzialność i weryfikowalność mają kluczowe znaczenie dla oczekiwań nadzorczych.

Nieprzejrzyste decyzje dotyczące sztucznej inteligencji

Wiele systemów sztucznej inteligencji, szczególnie tych opartych na uczeniu maszynowym, działa jak "czarne skrzynki". Jeśli działania naprawcze są uruchamiane bez jasnego wyjaśnienia przyczyny, audytorzy mogą uznać plany ciągłości za niezgodne z przepisami. Organy regulacyjne, takie jak Europejski Urząd Nadzoru Bankowego, podkreśliły już potrzebę wyjaśnienia w zautomatyzowanych systemach zarządzania ryzykiem. Zarządy muszą zatem nalegać na modele sztucznej inteligencji, które zapewniają udokumentowane ścieżki decyzyjne, zapewniając, że działania oparte na sztucznej inteligencji można uzasadnić podczas inspekcji lub po zakłóceniu.

Model niestabilności i ryzyko przeciwnika

Modele sztucznej inteligencji mogą zawodzić w nieoczekiwany sposób. Niestabilność pojawia się, gdy modele wyszkolone na wąskich danych nie mogą uogólnić się na nowe sytuacje kryzysowe, takie jak jednoczesne zakłócenia cybernetyczne i fizyczne. Ryzyko adwersarza pojawia się, gdy atakujący celowo manipulują danymi wejściowymi, aby wprowadzić systemy w błąd - na przykład ukrywając złośliwe zdarzenie sieciowe w celu uniknięcia wykrycia. W obu przypadkach założenia dotyczące ciągłości mogą się załamać, jeśli modele sztucznej inteligencji zachowują się nieprzewidywalnie pod presją. Aby to złagodzić, zarządy powinny wymagać testów warunków skrajnych sztucznej inteligencji w scenariuszach zakłóceń "skrajnych", a nie tylko rutynowych incydentów.

Zależności od osób trzecich i ryzyko koncentracji

DORA wyraźnie ostrzega przed nadmiernym poleganiem na krytycznych dostawcach usług ICT. Jeśli strategia ciągłości działania opiera się na niewielkiej liczbie dostawców sztucznej inteligencji lub hiperskalowych dostawców usług cloud , organizacja narażona jest na ryzyko koncentracji. Zakłócenie lub działania regulacyjne przeciwko dostawcy mogą kaskadowo doprowadzić do awarii systemowych. Zarządy muszą zatem skatalogować zależności, opracować strategie wyjścia i zdywersyfikować łańcuchy dostaw AI, dostosowując się do wymogów DORA w zakresie nadzoru stron trzecich.

Modelowanie luk w zabezpieczeniach

Modele sztucznej inteligencji są teraz same w sobie celem ataków. Techniki takie jak zatruwanie danych (uszkadzanie danych szkoleniowych), kradzież modeli lub szybkie wstrzykiwanie mogą zagrozić ciągłości systemów. Jeśli podmiotom stanowiącym zagrożenie się powiedzie, narzędzia do odzyskiwania danych mogą działać nieprawidłowo lub zapewniać fałszywą pewność, rozszerzając powierzchnię ataku. Zgodnie z NIS2, który wymaga proporcjonalnych środków technicznych i organizacyjnych, zarządy muszą zapewnić, że systemy sztucznej inteligencji są wzmocnione poprzez ciągłe monitorowanie, modelowanie zagrożeń i testowanie odporności na przeciwników.

Ryzyko to odzwierciedla szerszy temat: Sztuczna inteligencja nie jest z natury zgodna z przepisami. Bez zarządzania na poziomie zarządu ta sama technologia, która wzmacnia odporność, może wprowadzić nowe punkty awarii. Właśnie dlatego podkreśliliśmy w naszychPrognozy na 2025 r. dotyczące komunikacji i cyberbezpieczeństważe wdrożenie sztucznej inteligencji musi iść w parze z zarządzaniem ryzykiem dostawcy, dostosowaniem do przepisów i solidnymi praktykami bezpieczeństwa.

Działania na szczeblu wykonawczym w celu dostosowania AI do mandatów UE

  1. Osadzenie sztucznej inteligencji w ramach zarządzania. Mapuj przypadki użycia sztucznej inteligencji bezpośrednio na kontrole DORA, NIS2 i RODO. Wymagaj przejrzystości i możliwości audytu.
  2. Utrzymanie odporności hybrydowej. Zachowaj procesy odzyskiwania danych prowadzone przez człowieka wraz z automatyzacją AI, aby spełnić oczekiwania dotyczące redundancji.
  3. Testowanie w celu walidacji. Uruchamiaj scenariusze kryzysowe ze sztuczną inteligencją w pętli i dokumentuj wyniki jako dowód dla przełożonych.
  4. Zarządzanie zależnościami od dostawców. Katalogowanie dostawców AI, definiowanie strategii awaryjnych i monitorowanie zgodności.
  5. Wzmocnienie modeli AI. Zastosuj red teaming i monitorowanie, aby chronić potoki AI i zapewnić zgodność z przepisami.

Nasz 'Dokąd zmierza europejski rynek CCaaS w 2025 r." potwierdza, że główne transformacje sektora publicznego i przedsiębiorstw będą musiały zmierzyć się z zaostrzoną kontrolą regulacyjną. Włączenie odporności i zgodności ze sztuczną inteligencją do umów z dostawcami i przepływów pracy jest obecnie koniecznością na poziomie zarządu.

Patrząc w przyszłość

Europejskie organy regulacyjne sygnalizują, że sztuczna inteligencja będzie badana równie uważnie, jak każda inna krytyczna zdolność ICT. Pytanie do zarządów nie dotyczy tego, czy sztuczna inteligencja zwiększa ciągłość, ale czy robi to w sposób przejrzysty, możliwy do skontrolowania i zgodny z przepisami.

Teraz jest na to czas:

  • Zlecenie przeglądu gotowości w zakresie odporności na sztuczną intelig encję zgodnie z DORA, NIS2 i RODO.
  • Rzuć wyzwanie swoim CIO, CISO i CRO, aby przedstawili dowody na wyjaśnialność, redundancję i nadzór nad dostawcami w planowaniu ciągłości AI.
  • Zaangażuj zaufanych partnerów, takich jak Damovo, aby porównać swoje ramy odporności z najlepszymi praktykami UE i wyeliminować luki w zgodności, zanim zostaną one zidentyfikowane przez organy nadzoru.

Odporni liderzy będą traktować sztuczną inteligencję nie jako skrót, ale jako strategiczną zdolność, która wzmacnia zarówno zaufanie, jak i konkurencyjność. Aby omówić, w jaki sposób Damovo może pomóc w budowaniu odporności opartej na sztucznej inteligencji, która spełnia wymogi regulacyjne i chroni Twoje przedsiębiorstwo, skontaktuj się z nami.