LAW Insights 05.12.2025
AI w rekrutacji – rewolucja z ryzykiem dyskryminacji
AI w rekrutacji – rewolucja z ryzykiem dyskryminacji
Sztuczna inteligencja w procesach rekrutacyjnych przestała być pieśnią przyszłości. Stała się codziennością dla coraz większej liczby pracodawców, którzy wykorzystują algorytmy do tworzenia ogłoszeń o pracę, przeszukiwania baz kandydatów, selekcji CV czy automatycznej komunikacji z aplikującymi. Ta rewolucja przynosi wymierne korzyści w postaci oszczędności czasu i większej efektywności, ale niesie również poważne zagrożenia – przede wszystkim ryzyko dyskryminacji, które może prowadzić do odpowiedzialności prawnej pracodawcy.
Od ogłoszenia do selekcji – AI zmienia każdy etap naboru
Wykorzystanie sztucznej inteligencji w rekrutacji obejmuje dziś praktycznie wszystkie etapy procesu naboru. Zaawansowane algorytmy przeszukują sieć w poszukiwaniu aktualnych i archiwalnych ogłoszeń o pracę, co pozwala rekruterom na weryfikację stawek rynkowych i oferowanie bardziej konkurencyjnego wynagrodzenia. Na podstawie zebranych danych systemy automatycznie optymalizują treść ogłoszeń pod kątem konkretnej branży, dobierając odpowiednie słowa kluczowe i generując przejrzyste oferty.
Co więcej, algorytmy uczą się na podstawie wyników poprzednich naborów. Są w stanie wskazać, które ogłoszenia przynoszą najlepsze efekty, gdzie szukać kandydatów, a nawet zidentyfikować przyczyny niepowodzeń w rekrutacji i podpowiedzieć, jak zoptymalizować cały proces. AI wspomaga również dobór pytań rekrutacyjnych, generując zagadnienia weryfikujące zarówno kompetencje twarde i miękkie, jak i oczekiwania finansowe kandydatów.
Jednym z najbardziej czasochłonnych etapów tradycyjnej rekrutacji była ręczna analiza CV. Sztuczna inteligencja radykalnie przyspiesza ten proces – zamiast przeglądać setki aplikacji, rekruterzy mogą skupić się na strategicznych aspektach naboru. Algorytmy błyskawicznie dopasowują kompetencje kandydatów do wymogów pracodawcy, eliminując osoby niespełniające kluczowych kryteriów. AI pomaga również dotrzeć do tak zwanych kandydatów pasywnych, czyli osób, które aktywnie nie szukają pracy, ale mogą być otwarte na nowe wyzwania zawodowe. Systemy efektywnie przeszukują platformy takie jak LinkedIn oraz portale branżowe, identyfikując profile idealnie pasujące do poszukiwanego stanowiska.
Narzędzia oparte na sztucznej inteligencji znajdują też zastosowanie w komunikacji z kandydatami. Systemy automatycznie wysyłają spersonalizowane wiadomości na każdym etapie rekrutacji – od podziękowania za udział w procesie, po informację o jego zakończeniu i wyborze innej osoby. To szczególnie istotne w obliczu narastającego problemu braku jakiegokolwiek feedbacku dla kandydatów. Niektóre zaawansowane rozwiązania potrafią nawet weryfikować prawdziwość oświadczeń kandydatów z trafnością przekraczającą 80 procent.
Algorytm powiela stereotypy – ukryte ryzyko dyskryminacji
Sztuczna inteligencja w rekrutacji to jednak nie tylko korzyści. Jednym z najpoważniejszych zagrożeń jest ryzyko dyskryminacji, które pojawia się, gdy algorytmy nie są odpowiednio zaprojektowane lub nadzorowane. Problem tkwi w samej naturze uczenia maszynowego – systemy AI są szkolone na historycznych danych rekrutacyjnych, które mogą zawierać utrwalone stereotypy lub nieintencjonalne wzorce dyskryminacyjne.
Jeśli dane, na których trenuje algorytm, pokazują, że w przeszłości na danym stanowisku zatrudniano głównie mężczyzn, absolwentów konkretnych uczelni czy osoby w określonym wieku, AI może nauczyć się, że te cechy są pożądane. W efekcie system zaczyna faworyzować kandydatów o podobnym profilu i automatycznie odrzuca tych, którzy do niego nie pasują – niezależnie od ich faktycznych kompetencji. Może to utrudniać wchodzenie na rynek pracy osobom z nietypową ścieżką kariery, zróżnicowanymi doświadczeniami czy innym pochodzeniem.
Eksperci wskazują, że ryzyko dyskryminacji najczęściej występuje na etapie automatycznej analizy CV. Źle zaprojektowane prompty, niewłaściwe dopasowanie modelu językowego lub brak kontroli nad wynikami mogą skutkować pominięciem wartościowych kandydatów. Co więcej, zdarza się, że AI błędnie interpretuje informacje zawarte w CV lub generuje tak zwane halucynacje, przypisując kandydatowi cechy, które nie wynikają z faktów. W efekcie kandydat nie jest formalnie odrzucony, ale nie trafia na tak zwaną krótką listę, co w praktyce działa jak eliminacja.
Nieprzygotowany model językowy chętniej będzie kierował kobiety do zawodów wspierających, a mężczyzn na stanowiska kierownicze – to efekt stereotypów zakodowanych w danych historycznych. Takie działanie systemu może naruszać obowiązek równego traktowania kandydatów i w konsekwencji prowadzić do odpowiedzialności pracodawcy za dyskryminację.
Jak minimalizować ryzyko – nadzór człowieka i mechanizmy antydyskryminacyjne
Ryzyko dyskryminacji można skutecznie ograniczać, przede wszystkim poprzez odpowiedni nadzór człowieka nad decyzjami podejmowanymi przez algorytmy. Rekruter nie powinien pozostawiać AI samodzielnego podejmowania decyzji o zakwalifikowaniu kandydatów do dalszych etapów, szczególnie w fazie tworzenia krótkiej listy. Coraz więcej rozwiązań technologicznych oferuje również wbudowane mechanizmy antydyskryminacyjne, które warto wdrażać.
Jedną ze skutecznych metod jest pozbawianie danych znaczników płci i wieku przed przekazaniem ich do analizy algorytmom. Dzięki temu proponowane ścieżki kariery i decyzje rekrutacyjne nie wynikają ze stereotypów, a z rzeczywistych kompetencji kandydatów. Pracodawcy powinni również przeprowadzać regularne audyty systemów AI pod kątem potencjalnych wzorców dyskryminacyjnych i testować algorytmy na zróżnicowanych zestawach danych.
Unijne regulacje wprowadzają nowe obowiązki
Unia Europejska, dostrzegając wyzwania związane ze sztuczną inteligencją, przyjęła Rozporządzenie 2024/1689, znane jako AI Act. Jego celem jest ustanowienie jednolitych ram prawnych dla rozwoju i stosowania sztucznej inteligencji w państwach członkowskich, z uwzględnieniem ochrony praw podstawowych, w tym przeciwdziałania dyskryminacji w zatrudnieniu.
Rozporządzenie klasyfikuje systemy AI według poziomu ryzyka i nakłada na dostawców oraz użytkowników określone obowiązki. Narzędzia stosowane w procesach rekrutacyjnych zostały zakwalifikowane do kategorii wysokiego ryzyka. Pracodawca, który korzysta z takich systemów, powinien zapewnić przejrzystość działania AI poprzez informowanie kandydatów o stosowaniu sztucznej inteligencji w procesie rekrutacji. Konieczny jest również nadzór ludzki nad decyzjami podejmowanymi przez algorytmy oraz przeprowadzenie oceny ryzyka potencjalnej dyskryminacji przed wdrożeniem systemu.
W Polsce trwają obecnie prace nad dostosowaniem krajowego prawa do wymogów unijnej regulacji. Pracodawcy już teraz powinni jednak przygotowywać się do nowych obowiązków i weryfikować stosowane narzędzia rekrutacyjne pod kątem zgodności z przepisami o równym traktowaniu.
Podsumowanie
Sztuczna inteligencja rewolucjonizuje procesy rekrutacyjne, oferując pracodawcom narzędzia do szybszej i efektywniejszej selekcji kandydatów. Nie można jednak ignorować ryzyka dyskryminacji, które wynika z uczenia algorytmów na historycznych danych obciążonych stereotypami. Kluczowe znaczenie ma zachowanie ludzkiego nadzoru nad decyzjami AI, wdrażanie mechanizmów antydyskryminacyjnych oraz przygotowanie się do wymogów unijnego rozporządzenia AI Act. Pracodawcy, którzy świadomie zarządzają tym ryzykiem, mogą czerpać korzyści z automatyzacji przy jednoczesnym zachowaniu standardów równego traktowania kandydatów.
Wsparcie prawne w zakresie AI w rekrutacji
Wdrożenie narzędzi sztucznej inteligencji w procesach rekrutacyjnych wymaga nie tylko znajomości technologii, ale przede wszystkim świadomości ryzyk prawnych i obowiązków wynikających z przepisów o równym traktowaniu oraz unijnego rozporządzenia AI Act. Nasza kancelaria wspiera pracodawców w kompleksowym przygotowaniu organizacji do zgodnego z prawem wykorzystania AI w HR – od audytu stosowanych narzędzi rekrutacyjnych, przez opracowanie procedur nadzoru i dokumentacji wymaganej przez AI Act, po szkolenia dla zespołów HR z zakresu przeciwdziałania dyskryminacji algorytmicznej. Pomagamy również w przygotowaniu klauzul informacyjnych dla kandydatów oraz w ocenie ryzyka przed wdrożeniem nowych systemów. Jeśli Twoja firma korzysta z AI w rekrutacji lub planuje wdrożenie takich rozwiązań – skontaktuj się z nami, aby zminimalizować ryzyko odpowiedzialności prawnej.
Zobacz również
LAW Insights
Układy zbiorowe pracy na nowych zasadach
LAW Insights
EU Blue Card (Niebieska Karta) w Polsce w 2026
LAW Insights
EU Legal Gateway Office w Indiach – nowa era mobilności pracowników między UE a Indiami