AI ACT. Od 2 sierpnia nawet 150 mln zł kary dla firm, które nie zastosują się do regulacji

AI Act
Nawet 150 mln zł kary zapłacą firmy, które nie dostosują się do unijnych regulacji AI Act. / Fot. shutterstock / Sidney van den Boogaard
Europejski Akt o Sztucznej Inteligencji (AI Act) Unii Europejskiej, pierwsze na świecie kompleksowe regulacje dotyczące AI, od 2 sierpnia 2025 roku realnie wpłynie na funkcjonowanie przedsiębiorstw. Od tego dnia zaczynają obowiązywać kluczowe zobowiązania dla firm, instytucji rządowych i dostawców AI w całej UE, w tym kary za nieprzestrzeganie przepisów.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Od 2 lutego tego roku zakazane są systemy AI o niedopuszczalnym poziomie ryzyka, a firmy muszą zapewnić, że ich pracownicy posiadają kompetencje w zakresie sztucznej inteligencji. Podmioty, które od 2 sierpnia nie będą przestrzegać tych zasad, narażają się na grzywny w wysokości nawet 35 milionów euro (149,8 mln zł) lub 7 proc. globalnych rocznych przychodów. Wachlarz sankcji za nieprzestrzeganie wprowadzonych rozporządzeniem regulacji jest uzależniony również od lokalnych przepisów prawnych, a także wedle ustawodawcy powinny uwzględniać sytuację MŚP i start-upów, aby kary nie zagrażały ich stabilności ekonomicznej.

AI Act co trzeba wiedzieć

Europejskie zasady dotyczące sztucznej inteligencji, zwane także AI Act, czy aktem o sztucznej inteligencji, weszły w życie 1 sierpnia 2024 roku. Znaczna część przepisów zacznie – zgodnie z założeniami regulacji – obowiązywać bezpośrednio po upływie dwóch lat, tj. 2 sierpnia 2026 roku. Część jednak wejdzie w życie wcześniej – np. właśnie w sierpniu 2025 r. - przypomina firma SD Worx, dostawca rozwiązań HR.

- Korzystanie z narzędzi AI w miejscu pracy jest atrakcyjne przede wszystkim ze względu na oszczędność czasu, zmniejszone koszty czy usprawnienie pewnych procesów. Jak pokazują jednak badania opinii publicznej, zaufanie do narzędzi AI jest niewielkie. Stosowanie narzędzi AI – a szczególnie tzw. narzędzi wysokiego ryzyka – rodzić będzie po stronie pracodawców na mocy AI Act szereg nowych obowiązków, w tym przede wszystkim konieczność stałej weryfikacji prawidłowego działania systemów i bieżącego monitorowania działania tych narzędzi przez człowieka, który będzie zobowiązany posiadać odpowiednie kompetencje, uprawnienia oraz przeszkolenie w tym zakresie - mówi Marcin Sanetra, radca prawny z LL.M. Kancelaria PCS Paruch Chruściel Schiffter Stępień Kanclerz. - Dodatkowo, pracodawcy zobligowani będą do prowadzenia rejestru zdarzeń. Mowa tutaj o zdarzeniach istotnych dla monitorowania systemów AI po ich wprowadzeniu do obrotu tak, aby umożliwić identyfikowanie sytuacji stwarzających ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych. Długość okresu monitorowania będzie zależeć od przeznaczenia danego systemu, jednak nie może być on krótszy niż sześć miesięcy - wskazuje ekspert.

Kary do 150 mln zł dla firm, które zaniechają dostosowania do AI Act

Kolejnym ważnym obowiązkiem leżącym po stronie pracodawców będzie odpowiednia komunikacja na linii pracodawca – pracownicy. Pracodawcy będą zobowiązani informować przedstawicieli pracowników i pracowników, których to dotyczy, o stosowaniu wobec nich systemów AI wysokiego ryzyka i o zasadach, na podstawie których systemy te funkcjonują

- Otwarte, ale krytyczne podejście do narzędzi AI będzie kluczowe dla firm wdrażających nowe, zaawansowane systemy i rozwijających nowoczesne technologie w swoich miejscach pracy. Wszystkich takich pracodawców czeka również skodyfikowanie i wprowadzenie w życie zasad wewnętrznych oraz dobrych praktyk do organizacji, często wychodzących poza ramy obowiązujących i zmieniających się przepisów. Może to okazać się czasochłonne, ale z pewnością pozwoli uniknąć wielu pułapek, i skutecznie wykorzystać nowe technologie do budowania konkurencyjnego, przyjaznego miejsca pracy przyszłości - mówi Marcin Sanetra, radca prawny z LL.M. Kancelaria PCS Paruch Chruściel Schiffter Stępień Kanclerz.

Nowe obowiązki dla dostawców modeli GPAI

Jedną z grup, które w związku z wejściem w życie przepisów mogą spodziewać się zmian, są obecni na rynku UE - dostawcy, którzy począwszy od 2 sierpnia 2025 roku wprowadzą modele sztucznej inteligencji ogólnego przeznaczenia (GPAI). Modele te są zaprojektowane do wykonywania szerokiego zakresu zadań, a także są trenowane na ogromnych zbiorach danych i cechują się dużą wszechstronnością. Najbardziej znanym przykładem są duże modele językowe (LLM), takie jak GPT-4o zintegrowany z ChatGPT. Już 10 lipca br. Europejskie Biuro ds. AI opublikowało ostateczną wersję kodeksów postępowania. Wynika z nich, że dostawcy takich modeli muszą m.in.: przygotować dokumentację techniczną, przestrzegać praw autorskich, zapewnić przejrzystość danych treningowych. Z kolei Dostawcy modeli GPAI, świadczący swoje usługi na rynku UE przed 2 sierpnia 2025 r. mają czas na pełne dostosowanie się do przepisów do 2 sierpnia 2027 r.

Nadzór i zarządzanie

Akt o Sztucznej Inteligencji wprowadza ramy prawne z uprawnieniami do wdrażania i egzekwowania przepisów na dwóch poziomach. Na poziomie krajowym każde państwo członkowskie UE musi do 2 sierpnia 2025 roku wyznaczyć co najmniej jeden organ nadzoru rynku oraz jeden organ notyfikujący. Organy te będą odpowiedzialne odpowiednio za monitorowanie systemów AI oraz zgłaszanie niezależnych jednostek oceniających zgodność. Państwa członkowskie muszą do tego dnia opublikować informacje o krajowych organach oraz sposobach kontaktu z nimi.

Na poziomie europejskim nadzór będzie koordynowany przez Biuro ds. AI oraz Europejską Radę ds. AI. Zostanie również utworzone Forum Doradcze oraz Panel Naukowy złożony z niezależnych ekspertów.

Dlaczego to ważne dla działów HR i pracowników?

Wspominane rozporządzenie ma bezpośredni wpływ na sposób wykorzystywania AI. Jak szeroki jest to zakres widać jak na dłoni na przykładzie działów HR. Ustalenia, które wprowadza omawiane rozporządzenie znajdą zastosowanie w takich aspektach jak: rekrutacja, zarządzanie wynikami, analityka HR i monitorowanie pracowników. Tak szerokie spektrum funkcjonowania przyczynia się do tego, że liderzy HR mają spore wyzwanie, aby zadbać o to, żeby wszystkie narzędzia AI stosowane w tych obszarach były przejrzyste, sprawiedliwe i zgodne z nowymi przepisami.

  • Sprawiedliwość i brak dyskryminacji: Systemy AI wykorzystywane przy podejmowaniu decyzji o zatrudnieniu lub awansie muszą być zrozumiałe i wolne od uprzedzeń. Zespoły HR powinny przeanalizować swoje narzędzia i dostawców pod kątem zgodności z przepisami.
  • Zaufanie pracowników i przejrzystość: Pracownicy zyskają większy wgląd w to, jak systemy AI wpływają na ich pracę – np. w zakresie harmonogramów, ocen czy nadzoru. To szansa dla HR, by budować zaufanie poprzez jasną komunikację na temat wykorzystania AI i ochrony danych.
  • Odpowiedzialność dostawców: Działy HR korzystające z zewnętrznych narzędzi AI muszą upewnić się, że ich dostawcy spełniają nowe wymogi dotyczące przejrzystości i dokumentacji. Może to wymagać aktualizacji umów i procesów zakupowych.
  • Szkolenia i zarządzanie zmianą: Wraz z formalizacją zasad zarządzania AI, HR odegra kluczową rolę w szkoleniu menedżerów i pracowników w zakresie odpowiedzialnego korzystania z AI oraz wdrażaniu etycznych praktyk w kulturze organizacyjnej.

- Dostawcy modeli AI ogólnego przeznaczenia, obecnych na rynku mają czas do 2 sierpnia 2027 r. na pełne dostosowanie się do nowych przepisów. Dodatkowe obowiązki dla systemów AI wysokiego ryzyka wejdą w życie w 2026 i 2027 roku. Ten kamień milowy odzwierciedla zaangażowanie UE w promowanie innowacji przy jednoczesnym zapewnieniu, że AI jest bezpieczna, przejrzysta, zgodna z europejskimi wartościami – i stawia HR w centrum odpowiedzialnego wdrażania AI w miejscu pracy – mówi Tom Saeys, dyrektor operacyjny SD Worx.

ZOBACZ RÓWNIEŻ