Spokojnie, to tylko sztuczna inteligencja

z miesięcznika „My Company Polska”, wydanie 7/2025 (118)
Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!
Do gabinetów terapeutów na całym świecie coraz częściej zgłaszają się pacjenci skarżący się na lęk przed sztuczną inteligencją. Naukowcy zaczynają już nawet wyróżniać zaburzenie, zwane AI-fobią, polegające na irracjonalnym lęku przed najnowocześniejszą technologią. Ale niepokój z tym związany nie jest jedynie jednostką kliniczną. Badanie AI Anxiety in Business Survey opierające się na ustaleniach tysiąca pracowników z USA, którzy są zaznajomieni ze sztuczną inteligencją, pokazują, że aż 71 proc. z nich w jakimś stopniu się jej obawia. Z innych badań wynika, że prawie co piąty dorosły określa swoje uczucia wobec AI jako „lęk” lub „strach”.
Czy te obawy są wyłącznie irracjonalne? Nic na to nie wskazuje. Jakiś czas temu Krzysztof Inglot, ekspert rynku pracy i prezes Personnel Service, w rozmowie z „My Company Polska” zauważał, że pewne prace, które zajmują informatykom osiem godzin, sztuczna inteligencja wykonuje w kilka minut. – Mówimy o narzędziach, które są dziś powszechnie dostępne, ale przecież nie wiemy, co się dzieje w zamkniętych laboratoriach Chin czy USA. Należy przypuszczać, że obecna tam technologia jest znacznie bardziej zaawansowana. Jestem przekonany, że sztuczna inteligencja stanie się ważnym elementem globalnej konfrontacji, zwłaszcza między tymi dwoma państwami. Walka między mocarstwami trwa zresztą już teraz, mamy np. doniesienia, że Chiny wykradły Zachodowi pewne technologie w tej dziedzinie – uważa Inglot. I podkreśla, że na naszych oczach znikają „Święte Grale rynku pracy”. - Przecież przez lata młodym ludziom powtarzaliśmy, żeby „szli na informatykę”. Jakiś czas temu mówiono też o tym, że na spokojną przyszłość i wysokie zarobki mogą liczyć analitycy danych, tymczasem dzisiaj widać, że ich kompetencje mogą przejąć roboty – ocenia.
Czy czeka nas katastrofa
Jak zauważa Iwona Kubicz, ekspertka ds. ESG, doradczyni w dziedzinie komunikacji korporacyjnej i prezeska agencji PRCN, sztuczna inteligencja jest dziś odmieniana w mediach przez wszystkie przypadki. – Zdaniem biznesowych liderów pochłonie ona tyle miejsc pracy, że konieczne będzie wdrożenie minimalnego dochodu gwarantowanego umożliwiającego przeżycie tym osobom, które stracą pracę w związku z jej dynamicznym rozwojem – zauważa specjalistka. Te spekulacje wywołują debatę na temat bezpieczeństwa wdrażania AI oraz rewolucyjnych zmian, jakie może ona przynieść dla globalnego rynku pracy.
Jednym z rozważanych sposobów zapobiegania niebezpieczeństwom jest wprowadzenie na czas zmiany kwalifikacji płacy socjalnej. Z raportu World Economic Forum wynika, że do 2027 r. pracodawcy stworzą 69 mln nowych miejsc pracy, ale w tym samym czasie zlikwidują aż 83 mln. Będzie to wynikiem wolniejszego wzrostu gospodarczego oraz właśnie większego wykorzystania technologii, w tym AI.
Wydaje się, że same liczby nie oddają skali zagrożenia. Wynika z nich bowiem jedynie, że jedne miejsca pracy znikną, a inne powstaną. To nie brzmi aż tak bardzo katastroficznie. Problem jednak w tym, że osoby, które stracą pracę, nie zawsze będą mogły objąć nowe stanowiska. – Bo pracę będą tracili kierowcy, pracownicy biurowi czy ludzie z call center, tymczasem potrzebni będą inżynierowie od fotowoltaiki, specjaliści od zmiany klimatu, genetyki czy terraformacji – zauważa Krzysztof Inglot.
Prezeska agencji PRCN twierdzi, że zarówno firmy jak i rządy już dziś starają się przygotować na zmiany na rynku pracy wywołane przez AI. – Na przykład poprzez skrócenie tygodnia pracy czy różne formy wspomnianego już dochodu gwarantowanego niepowiązanego z wykonywaniem obowiązków – wymienia Iwona Kubicz. – Jednocześnie państwa próbują zadbać o to, by szkoły i uczelnie wyższe rozwijały najważniejsze kompetencje potrzebne w pracy z nowoczesnymi technologiami i przygotowywały uczniów i studentów do tego, że praca zawodowa będzie wymagała od nich nieustannego rozwoju – dodaje. Coraz ważniejsza będzie też walka z cyfrowym uzależnieniem. – Istotnym elementem przeciwdziałania negatywnemu wpływowi AI na kondycję psychiczną pracowników może być też dbałość pracodawcy o podtrzymanie relacji i interakcji pomiędzy pracownikami w świecie rzeczywistym – dodaje specjalistka.
Czego nie wolno w Europie
Perspektywa nowej rzeczywistości budzi obawy, ale też – na szczęście – wywołuje konkretne działania. Nic więc dziwnego, że pierwsze regulacyjne mapy drogowe dla przedsiębiorców nabierają już kształtu w instytucjach europejskich. Jak zauważa Iwona Kubicz, Komisja Europejska pracuje obecnie nad „Ogólnym kodeksem postępowania w zakresie sztucznej inteligencji”. Ma on stanowić bardziej szczegółowe wytyczne uzupełniające zapisy AI Act. - Chodzi o ograniczenie ryzyka związanego z zastosowaniem sztucznej inteligencji – wyjaśnia Kubicz. Przepisy AI Act wejdą w życie już w sierpniu 2025 r.
Ekspertka podkreśla, że – według opracowywanego przez Komisję Europejską kodeksu – wszystkie systemy AI uważane za wyraźne zagrożenie dla życia i bezpieczeństwa ludzi oraz ich podstawowych praw, mają być zakazane. Ustawa o AI (AI Act) zakazuje ośmiu praktyk. Wśród nich m.in. szkodliwej manipulacji i oszustw opartych na AI, a także wdrażania systemów AI dla punktacji społecznej (social scoring). Co to oznacza?
Najlepiej wytłumaczyć to na przykładzie. Scoring społeczny wdrażany jest obecnie w Chinach. – Przykładowo za działanie na rzecz partii rządzącej w tym kraju dostajemy dodatkowe punkty, a w przypadku wykroczenia albo działania wbrew wartościom wyznawanym przez partię przyznawane są nam punkty ujemne. W konsekwencji, jeżeli będziemy mieć określony poziom punktów, wyższy lub niższy, możemy uzyskać jakieś benefity albo mieć problem z dostępem do usług administracji czy uzyskaniem kredytu - tłumaczy Michał Nowakowski, ekspert od prawa cyfrowego, prawnik z kancelarii Maruta Wachta.
Europa takich praktyk zakazuje. Nie pozwala też, by na podstawie sztucznej inteligencji przewidywać ryzyko popełnienia przez poszczególne osoby przestępstwa, tworzyć bazy danych służące do rozpoznawania emocji w miejscu pracy na podstawie twarzy, a także dokonywać biometrycznej kategoryzacji w celu wnioskowania pewnych chronionych cech.
Zrozumieć algorytmy i… pracownika
Jak podkreśla Iwona Kubicz, budowanie zaufania do technologii, zwłaszcza sztucznej inteligencji, to duże wyzwanie nie tylko dla państw, ale też dla biznesu. Wymaga ono przede wszystkim uczciwej, otwartej komunikacji i aktywnego dialogu z interesariuszami. - Bardzo istotnym elementem będzie zaangażowanie samych pracowników w proces wdrożenia AI, a więc zbieranie potrzeb, projektowanie narzędzi i interfejsów, a także zbieranie danych do trenowania modeli AI. Uczestnictwo pracowników w tym procesie jest kluczowe dla ich poczucia bezpieczeństwa i wejścia w proces zmian z mniejszymi obawami o to, że np. AI ich wykluczy, doprowadzając chociażby do ich zwolnienia – zauważa ekspertka.
Jej zdaniem, w procesie wdrażania technologii opartych o AI ważne jest również stworzenie bezpiecznej przestrzeni dla pracowników do wyrażenia obaw w tej dziedzinie. – Na przykład przez konsultacje, szkolenia czy mechanizmy feedbacku – wymienia specjalistka. Dodaje też, że wzmacnianie tzw. AI literacy, czyli kompetencji cyfrowych i zrozumienia działania algorytmów, jest nieodzownym elementem strategii budowania zaufania. - Równolegle należy rozwijać etyczne ramy użycia AI – podkreśla. I podaje przykłady takich działań: jasno zdefiniowane polityki prywatności, przejrzyste zasady przetwarzania danych oraz systemy monitorowania i audytu. – Wszystko to wzmocni społeczną akceptację dla AI i ograniczy ryzyko wizerunkowe i prawne związane z jej wprowadzeniem – tłumaczy Iwona Kubicz.
Bez danych ani rusz
Czy nowoczesne technologie należy widzieć jedynie w kategorii zagrożeń, przed którymi powinniśmy się bronić? Zdaniem Iwony Kubicz, absolutnie nie. Mogą być one przecież narzędziem do osiągania celów zrównoważonego rozwoju. – Technologie, takie jak sztuczna inteligencja, analiza big data, czy cyfrowe platformy monitorujące zużycie zasobów pozwalają np. firmom mierzyć i optymalizować swój wpływ środowiskowy w czasie rzeczywistym – zauważa ekspertka. A to niezwykle silne narzędzie w służbie ESG. Żeby jednak okazało się przydatne, musi być sprawne. Na straży tego, by przekazywane przez firmy informacje dotyczące zrównoważonego rozwoju były wiarygodne, Unia Europejska stawia m.in. organizacje społeczne. To właśnie NGO mają być swego rodzaju watchdogiem dla wdrażania celów ESG. Aby tak się stało, muszą mieć one jednak dostęp do danych w czasie rzeczywistym. Iwona Kubicz podaje przykład dotyczący zdrowia Polaków i naszej zapadalności na różne infekcje. Ich efektem są zwolnienia lekarskie, które generują dla pracodawców ogromne koszty. – Bez wiarygodnych danych dotyczących wyszczepialności i ryzyk epidemiologicznych w postaci monitorowania liczby zakażeń i podawania tych danych do wiadomości publicznej debata na temat profilaktyki zdrowotnej praktycznie przestaje mieć sens – uważa.
Nie ma więc wątpliwości, że nowoczesne technologie, takie jak sztuczna inteligencja, analiza big data czy Internet Rzeczy (IoT), stanowią dziś kluczowe narzędzia realizacji celów zrównoważonego rozwoju. - Dzięki nim możliwe jest np. śledzenie w czasie rzeczywistym zużycia energii, emisji gazów cieplarnianych czy efektywności procesów logistycznych. A to umożliwia chociażby poprawę wskaźników środowiskowych, ale także lepsze planowanie ewentualnych działań naprawczych – mówi Kubicz. AI może również pomóc w optymalizacji tras transportu, monitorowaniu jakości powietrza czy analizie ryzyka klimatycznego, wspierając bardziej świadome decyzje strategiczne. – Spięcie wszystkich danych w jeden system może też skutecznie pokazywać na dużych zbiorach danych rozmaite anomalie – dodaje ekspertka.
Ale nowoczesne technologie służą pomocą nie tylko środowisku czy ekologii. W aspekcie społecznym umożliwiają np. lepsze planowanie polityki zdrowotnej, zrównoważony dostęp do edukacji (np. przez platformy cyfrowe) czy wspieranie grup wykluczonych cyfrowo. – Przykładem może być wykorzystanie danych medycznych do personalizacji opieki zdrowotnej i wczesnej profilaktyki, co powoduje zwiększenie dobrostanu społecznego i redukcję kosztów systemowych – twierdzi Iwona Kubicz. Podkreśla jednak, że warunkiem skuteczności tych narzędzi jest ich etyczne stosowanie i projektowanie zgodnie z o zasadami odpowiedzialności technologicznej.
Cyfrowy dowód autentyczności
Nowoczesne technologie stają się dziś też „cyfrowym dowodem” autentyczności deklaracji ESG. Przykład? - Blockchain pozwala na trwałe zapisanie informacji o pochodzeniu materiałów czy emisjach w danym cyklu produkcyjnym – mówi Iwona Kubicz. Eliminuje to możliwość manipulacji danymi. – Z kolei Internet Rzeczy dostarcza danych z czujników umieszczonych na liniach produkcyjnych, umożliwiając monitorowanie procesów w czasie rzeczywistym i potwierdzanie ich zgodności z deklarowanymi normami środowiskowymi i społecznymi – tłumaczy specjalistka. Co więcej, zaawansowane narzędzia do wizualizacji danych ESG pozwalają na bieżące monitorowanie wskaźników i szybkie reagowanie na odchylenia. - Transparentność wsparta technologią staje się więc nowym fundamentem wiarygodności – zaznacza Iwona Kubicz.
Nic dziwnego, że coraz więcej firm w integracji technologii z ESG zaczyna dostrzegać nie tylko obowiązek regulacyjny, ale też realną przewagę konkurencyjną. – Organizacje, które potrafią przejrzyście raportować wpływ swoich działań, a jednocześnie udowodnić, że robią to dzięki zaawansowanym narzędziom technologicznym, zyskują zaufanie klientów, inwestorów i regulatorów – wyjaśnia Iwona Kubicz. - Zautomatyzowane raportowanie ESG pozwala firmie reagować szybciej, efektywniej i bardziej elastycznie na zmieniające się wymagania rynku i otoczenia regulacyjnego – uściśla.
Świadomość ta wciąż jednak nie jest powszechna, szczególnie w sektorze MSP. – Dlatego niezbędne jest wspieranie firm, m.in. przez edukację, dostęp do przykładów dobrych praktyk i narzędzi open source – podkreśla Iwona Kubicz. – Równie ważne jest, by strategię ESG i cyfryzacji projektować łącznie, a nie jako dwa osobne strumienie. Właściwa integracja tych procesów pozwala bowiem organizacjom nie tylko raportować zgodność, ale także tworzyć nowe modele biznesowe, w których odpowiedzialność i innowacyjność są nierozłączne – nadmienia.
Tak więc przedsiębiorstwa stoją dziś przed szansą wykorzystania postępu technologicznego nie tylko do zwiększenia efektywności operacyjnej, ale również do realizacji ważnych celów społecznych i ekologicznych. – Przyszłość należy do przedsiębiorstw, które potrafią połączyć innowacje technologiczne z odpowiedzialnym podejściem do biznesu, ale także zająć się lękiem przed technologią, nowym wykluczeniem technologicznym oraz zmniejszonym popytem na pracę wynikającym z automatyzacji procesów – podsumowuje Iwona Kubicz.

Więcej możesz przeczytać w 7/2025 (118) wydaniu miesięcznika „My Company Polska”.