AI, pracownik, o którym nie wie HR. Firmy muszą wdrożyć zasady AI Act

ai
Firmy muszą wdrożyć zasady wynikające z regulacji AI Act. / Fot. shutterstock / Stock_Asso
Blisko 90% Polaków wykorzystujących AI w pracy korzysta z ogólnodostępnych narzędzi. Tymczasem jak dotąd zaledwie połowa firm opracowała i wdrożyła wewnętrzną politykę regulującą wykorzystanie takich rozwiązań. To będzie musiało się zmienić: już za rok wszystkie przedsiębiorstwa korzystające ze sztucznej inteligencji będą musiały umieć wskazać, jakich narzędzi używają i czy robią to zgodnie z wymogami unijnego AI Act.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Unia Europejska przyjęła rozporządzenie AI Act w 2024 roku. Dokument reguluje wykorzystanie sztucznej inteligencji na całym terenie UE i będzie obowiązywał każde państwo członkowskie bezpośrednio, niezależnie od tempa wdrażania lokalnych przepisów. Regulacje obejmują zarówno dostawców rozwiązań bazujących na AI, jak i podmioty, które ich używają. Większość nowych zasad zacznie obowiązywać już za rok, w sierpniu 2026 roku. To oznacza, że polskie firmy mają niewiele czasu na przygotowania. A te będą wymagające, bo skala wykorzystania AI przez pracowników w Polsce już dziś jest wyższa niż średnia światowa.

Ponad połowa Polaków przedstawia wygenerowane treści jako własną pracę

Narzędzia oparte na sztucznej inteligencji szybko przyjęły się wśród polskich pracowników. Jak wynika z raportu KPMG “Sztuczna inteligencja w Polsce”, 69% osób korzysta z nich regularnie (światowa średnia to 66%), a 76% Polaków odczuwa dzięki nim wzrost wydajności pracy. Z danych wynika, że adopcja rozwiązań AI jest na wysokim poziomie, a ogólnodostępne duże modele językowe (np. Open AI) stały się niewidzialnymi pracownikami firm ponad połowa badanych w Polsce przyznaje, że przedstawia wygenerowanie przez AI treści jako własne.

Entuzjastyczne podejście do sztucznej inteligencji widać też w decyzjach zarządów. Według raportu EY, już co czwarta firma w Polsce wdrożyła sztuczną inteligencję, a 59% traktuje implementację narzędzi bazujących na AI jako jeden ze swoich priorytetów. To więcej niż odsetek przedsiębiorstw, które realnie przygotowują się do adopcji sztucznej inteligencji – zaledwie 50% firm wdrożyło politykę korzystania z wewnętrznych i ogólnodostępnych narzędzi AI. Jej przygotowanie powinno stać się priorytetem, zwłaszcza biorąc pod uwagę entuzjazm pracowników do wykorzystania takich narzędzi.

– Zastosowanie narzędzi AI otwiera przed firmami szerokie możliwości – od przyspieszania pracy operacyjnej, przez wspieranie decyzji opartych na danych, po automatyzację powtarzalnych zadań. Jednak realna wartość rozwiązań AI zależy bezpośrednio od jakości i bezpieczeństwa danych, na których są trenowane i używane. Wysoki stopień wykorzystania narzędzi AI przy braku wiedzy pracowników na temat zasad ich bezpiecznego używania, może prowadzić do niekontrolowanego (i często nieświadomego) udostępniania poufnych informacji. Dotyczy to zwłaszcza ogólnodostępnych modeli językowych. Firmy nie powinny zwlekać z wprowadzeniem ujednoliconych narzędzi bazujących na AI. Tylko wtedy będą miały możliwość bezpiecznego i kontrolowanego wykorzystania sztucznej inteligencji. Kolejnym krokiem powinno być opracowanie wewnętrznych polityk i szkoleń podnoszących świadomość zespołów – przyznaje Michał Rykiert, Chief Evangelist w firmie WEBCON.

AI Act zmniejszy stopień wykorzystania sztucznej inteligencji?

Unijne rozporządzenie reguluje wykorzystanie narzędzi AI w oparciu o ich dostęp do danych oraz wpływ na decyzje istotne dla człowieka. Firmy często wdrażają pojedyncze rozwiązania wyspecjalizowane w konkretnym zadaniu – np. chatboty wspierające obsługę klienta. Zgodnie z założeniami AI Act, wiele takich rozwiązań będzie klasyfikowanych jako stwarzające niskie lub minimalne ryzyko. W takim przypadku przedsiębiorstwa będą miały obowiązek poinformowania użytkownika, że ma do czynienia ze sztuczną inteligencją, a nie człowiekiem.

Dużo więcej obowiązków będą miały firmy wykorzystujące narzędzia, w których sztuczna inteligencja ma dostęp do wrażliwych danych lub może wpływać na decyzje o istotnym znaczeniu dla człowieka. Dotyczy to np. wykorzystania AI do selekcji kandydatów w procesie rekrutacyjnym czy analizy ryzyka kredytowego. W takich przypadkach rozwiązania będą kwalifikowane jako te o wysokim ryzyku. AI Act przewiduje wówczas szereg obowiązków, m.in. zapewnienie nadzoru nad wykorzystaniem takich narzędzi czy możliwości ich audytu. Kary za nieprzestrzeganie przepisów mogą sięgać nawet 35 mln euro lub 7% globalnego obrotu.

Czy firmy będą musiały zrezygnować ze wsparcia AI? 

W kwestii rezygnacji z narzędzi AI ze względu na nowe regulacje ekspert uspokaja: 

By bezpiecznie korzystać z możliwości AI warto opracować strategię, która po pierwsze pomoże określić, w których obszarach sztuczna inteligencja ma szanse przynieść największe korzyści biznesowe, a po drugie – wskaże kierunek rozwoju technologii, którym powinna podążać firma. W korzystaniu z AI kluczowe jest przygotowanie. Punktowo wdrażana sztuczna inteligencja nie wykorzystuje pełnego potencjału technologii. Systemy potrzebują wysokiej jakości informacji, by móc spełniać swoją rolę. Dlatego warto dążyć do tego, by rozwiązania oparte o AI działały w tle konkretnych procesów, analizując aktualne dane operacyjne i wydając na ich podstawie trafniejsze rekomendacje. Co równie istotne, aby zwiększyć bezpieczeństwo informacji i umożliwić ich skuteczną kontrolę, warto zcentralizować dane np. w jednej platformie – wskazuje Michał Rykiert.

ZOBACZ RÓWNIEŻ