LAW Insights 11.12.2025
EDPS: Nowe wytyczne zarządzania ryzykiem AI
Europejski Inspektor Ochrony Danych opublikował przełomowy dokument, który wyznacza standardy ochrony danych osobowych w erze sztucznej inteligencji. Wytyczne stanowią praktyczny przewodnik dla wszystkich instytucji unijnych wdrażających systemy AI.
Przełomowy dokument w dobie cyfrowej transformacji
11 listopada 2025 roku Europejski Inspektor Ochrony Danych (EDPS) opublikował kompleksowe wytyczne dotyczące zarządzania ryzykiem systemów sztucznej inteligencji. Dokument liczący ponad 50 stron stanowi odpowiedź na rosnące wyzwania związane z integracją technologii AI w instytucjach, organach, urzędach i agencjach Unii Europejskiej.
Wytyczne nie mają charakteru wyczerpującego katalogu wymogów. EDPS podkreśla, że każda instytucja powinna przeprowadzić własną, dostosowaną do kontekstu ocenę ryzyka. Dokument został wydany w ramach kompetencji nadzorczych EDPS w zakresie ochrony danych, niezależnie od roli jako organu nadzoru rynku na podstawie unijnego rozporządzenia o sztucznej inteligencji (AI Act).
Fundament metodologiczny: norma ISO 31000
Wytyczne opierają się na uznanej międzynarodowo normie ISO 31000:2018 dotyczącej zarządzania ryzykiem. Przyjęta metodologia obejmuje pełen cykl zarządzania ryzykiem: od ustalenia kontekstu organizacyjnego, przez identyfikację i analizę zagrożeń, po ich ewaluację, traktowanie oraz ciągłe monitorowanie.
Dokument definiuje ryzyko w kontekście przetwarzania danych osobowych przez systemy AI. Źródłem ryzyka jest samo przetwarzanie danych w ramach wdrożenia systemu sztucznej inteligencji. Zdarzeniem ryzykownym jest sytuacja, w której takie przetwarzanie może naruszyć prawa i wolności osób, których dane dotyczą. Konsekwencją są szkody materialne lub niematerialne, jakie mogą ponieść te osoby.
Cykl życia systemu AI jako ramy zarządzania ryzykiem
EDPS szczegółowo analizuje cykl życia systemów sztucznej inteligencji, wskazując, że różne ryzyka pojawiają się na różnych etapach rozwoju i wdrożenia. Typowy cykl obejmuje dziewięć faz: od koncepcji i analizy, przez pozyskiwanie i przygotowanie danych, rozwój systemu, weryfikację i walidację, wdrożenie, operacyjne funkcjonowanie z monitoringiem, ciągłą walidację, ponowną ewaluację, aż po wycofanie systemu z użycia.
Szczególną uwagę wytyczne poświęcają procesowi zamówień publicznych. EDPS podkreśla, że ten etap stanowi kluczowy punkt interwencji, pozwalający uniknąć problemów na dalszych etapach wdrożenia. Dokument zaleca włączenie inspektorów ochrony danych już na etapie przygotowania specyfikacji przetargowych, aby zapobiec późniejszym trudnościom związanym z gotowymi, niekoniecznie zgodnymi z wymogami rozwiązaniami.
Interpretowalność i wyjaśnialność: warunek sine qua non
Jednym z kluczowych elementów wytycznych jest wymaganie interpretowalności i wyjaśnialności systemów AI. EDPS traktuje te cechy jako absolutny warunek zgodności z przepisami o ochronie danych osobowych.
Interpretowalność dotyczy możliwości zrozumienia przez człowieka mechanizmów działania modelu AI – jego wewnętrznej logiki oraz powiązań między danymi wejściowymi a wynikami. Wyjaśnialność koncentruje się natomiast na możliwości wytłumaczenia, dlaczego system generuje określone rezultaty, w sposób zrozumiały dla użytkowników końcowych.
Wytyczne wskazują na konkretne narzędzia techniczne służące zapewnieniu wyjaśnialności. Wśród nich wymieniane są metody takie jak LIME (Local Interpretable Model-agnostic Explanations) czy SHAP (SHapley Additive exPlanations), oparte na teorii gier kooperacyjnych, które przypisują wartości poszczególnym cechom modelu i pozwalają zrozumieć ich wpływ na konkretne predykcje.
Pięć kluczowych zasad ochrony danych w kontekście AI
Centralną część wytycznych stanowi szczegółowa analiza pięciu zasad ochrony danych osobowych w specyficznym kontekście systemów sztucznej inteligencji: zasady rzetelności, dokładności, minimalizacji danych, bezpieczeństwa oraz praw osób, których dane dotyczą.
Zasada rzetelności i problem uprzedzeń algorytmicznych
Systemy sztucznej inteligencji mają tendencję do powielania i wzmacniania istniejących uprzedzeń ludzkich, a nawet do tworzenia nowych. EDPS identyfikuje kilka typów uprzedzeń: wynikające z niskiej jakości danych treningowych, z niereprezentatywności zbiorów danych, z nadmiernego dopasowania modelu (overfitting), z samego projektu algorytmu oraz z błędnej interpretacji wyników.
Wytyczne przytaczają przykład systemu COMPAS używanego w amerykańskim systemie wymiaru sprawiedliwości do przewidywania recydywy. System wykazywał uprzedzenia wobec osób o afroamerykańskim pochodzeniu, co wynikało między innymi z błędnego założenia liniowej zależności między niektórymi cechami a prognozą.
Jako środki zaradcze dokument wskazuje: audyty jakości danych, techniki regularyzacji zapobiegające nadmiernemu dopasowaniu, różnorodność zespołów projektowych, szkolenia dla osób interpretujących wyniki oraz wykorzystanie narzędzi do audytu uprzedzeń, takich jak AI Fairness 360 czy Aequitas.
Zasada dokładności: prawna i statystyczna
EDPS rozróżnia dwa wymiary dokładności. Dokładność prawna, wynikająca z przepisów o ochronie danych, wymaga, aby przetwarzane dane osobowe były prawidłowe i aktualne. Dokładność statystyczna odnosi się natomiast do poprawności wyników generowanych przez system AI.
Szczególnym wyzwaniem jest zjawisko dryfu danych – stopniowej zmiany charakterystyki danych w czasie, która może powodować degradację dokładności modelu. Wytyczne zalecają wdrożenie mechanizmów wykrywania dryfu, ciągłego monitorowania jakości oraz regularnego ponownego trenowania modeli.
Zasada minimalizacji danych
Systemy AI charakteryzują się naturalną tendencją do wykorzystywania jak największej ilości danych. EDPS ostrzega przed nieuzasadnionym gromadzeniem informacji wykraczającym poza to, co niezbędne do realizacji określonego celu. Wytyczne zalecają wcześniejszą ocenę użyteczności danych, stosowanie próbkowania zamiast pełnych zbiorów danych oraz techniki anonimizacji i pseudonimizacji.
Zasada bezpieczeństwa: nowe wektory ataków
Systemy AI wprowadzają nowe kategorie zagrożeń bezpieczeństwa. EDPS identyfikuje trzy główne obszary ryzyka: ujawnienie danych przez wyniki modelu (na przykład poprzez ataki polegające na odtwarzaniu danych treningowych), naruszenia związane z przechowywaniem dużych zbiorów danych oraz wycieki przez interfejsy API.
Jako środki ochrony wytyczne wskazują: prywatność różnicową, szyfrowanie, dane syntetyczne, bezpieczne praktyki programistyczne, uwierzytelnianie wieloskładnikowe, kontrolę dostępu opartą na rolach, ograniczanie liczby zapytań do API oraz regularne audyty bezpieczeństwa.
Prawa osób, których dane dotyczą
Realizacja prawa dostępu, sprostowania i usunięcia danych osobowych w kontekście systemów AI napotyka specyficzne trudności. Dane mogą być rozproszone w parametrach modelu, co utrudnia ich identyfikację i ekstrakcję. Ponadto zjawisko zapamiętywania danych przez modele może uniemożliwiać ich skuteczne usunięcie.
Wytyczne wskazują na rozwijającą się dziedzinę tzw. uczenia maszynowego „zapominającego” (machine unlearning), która pozwala na usuwanie wpływu konkretnych danych z modelu bez konieczności jego ponownego trenowania od podstaw.
Praktyczne narzędzia: załączniki do wytycznych
Dokument zawiera trzy załączniki o charakterze praktycznym. Pierwszy przedstawia metryki i benchmarki do oceny systemów AI, w tym uznane standardy takie jak GLUE, SuperGLUE czy HELM dla modeli językowych oraz ImageNet czy COCO dla systemów rozpoznawania obrazów.
Drugi załącznik oferuje syntetyczny przegląd wszystkich zidentyfikowanych ryzyk. Trzeci zawiera listy kontrolne przypisane do poszczególnych faz cyklu życia systemu AI, umożliwiające systematyczną weryfikację zgodności na każdym etapie.
Znaczenie wytycznych dla przyszłości AI w UE
Wytyczne EDPS wypełniają istotną lukę między abstrakcyjnymi zasadami regulacyjnymi a praktycznym wdrażaniem systemów sztucznej inteligencji. Choć adresowane są bezpośrednio do instytucji unijnych, stanowią cenny wzorzec również dla organizacji spoza sektora publicznego.
Dokument wpisuje się w szerszy kontekst europejskiego podejścia do regulacji sztucznej inteligencji, uzupełniając przepisy AI Act o wymiar ochrony danych osobowych. EDPS podkreśla, że wytyczne powinny być stosowane łącznie z innymi opracowanymi przez niego narzędziami, w szczególności z wytycznymi dotyczącymi ocen skutków dla ochrony danych oraz orientacjami w zakresie generatywnej sztucznej inteligencji z czerwca 2024 roku.
Publikacja tych wytycznych sygnalizuje, że era nieregulowanego rozwoju AI w instytucjach publicznych dobiega końca. Innowacja technologiczna musi iść w parze z odpowiedzialnością za ochronę praw podstawowych obywateli.
Zobacz również
LAW Insights
Stażysta jak pracownik – co zmieni nowa ustawa o stażach?
LAW Insights
Składki ZUS dla członków rad nadzorczych w 2026 roku
LAW Insights
Obowiązki pracodawcy delegującego pracowników do Francji