"Bot cię oszuka szybciej niż myślisz" – Prof. Jemielniak ostrzega przed AI, które udaje ludzi

Wiktor Cyrny: AI rozwija się błyskawicznie, spora część społeczeństwa za tym nie nadąża. O czym warto im przypomnieć, gdzie powinni zachować czujność?
Prof. Dariusz Jemielniak: Rozwój sztucznej inteligencji już dziś przekłada się na rosnącą liczbę przypadków podszywania się pod ludzi – czy to w postaci fałszywych rozmów telefonicznych, czy hiperrealistycznych awatarów wideo generowanych przez AI. Warto na to zwracać uwagę. Obserwujemy niepokojące sytuacje, w których nastolatki, osoby starsze czy ludzie w trudnym położeniu emocjonalnym nawiązują relacje z botami, nie zdając sobie sprawy, że rozmawiają ze sztuczną inteligencją. Stąd postulat Czwartego Prawa Robotyki – by AI nie mogło wprowadzać człowieka w błąd, podszywając się pod realną osobę – nabiera szczególnej wagi.
Ale czy to naprawdę takie złe, że ktoś zaprzyjaźni się z chatbotem?
W naturalny sposób ludzie mają tendencję do ucieleśniania technologii – przypisywania jej ludzkich cech i emocji. Są przypadki, w których rozmowa z botem może działać terapeutycznie – jak pisanie dziennika przy jego udziale czy używanie prostych chatbotów psychologicznych.
Więc czasem to może pomóc?
Tak, o ile człowiek ma świadomość, że rozmawia z programem.
A kiedy zaczyna się problem?
Gdy granica między człowiekiem a maszyną zostaje zamazana. Jeśli użytkownik wierzy, że rozmawia z przyjacielem czy bliską osobą, łatwo o manipulację emocjonalną. Bot może – świadomie lub nie – wykorzystywać dane osobowe i wrażliwe informacje. W skrajnych przypadkach, jak udokumentowane samobójstwa nastolatków, okazywało się, że młodzi ludzie nie umieli odróżnić rzeczywistego wsparcia od algorytmu imitującego relację.
Czy dzieci i młodzież powinny mieć ograniczony dostęp do AI?
Dzieci i młodzież są szczególnie wrażliwi emocjonalnie, a jednocześnie znacznie sprawniej poruszają się w nowych technologiach. Nie chodzi o zakazy. Chodzi o jasne zasady: oznaczanie, że rozmowa odbywa się z algorytmem, oraz filtry treści chroniące przed szkodliwym przekazem. W USA panuje wolna amerykanka – dzieci dostały dostęp do konwersacji z awatarami w WhatsAppie, bez żadnej zgody rodziców. W Unii Europejskiej są przynajmniej pewne ograniczenia.
Czyli to mieszanka wybuchowa?
Dokładnie. Brak kontroli rodzicielskiej lub odpowiednich zabezpieczeń sprawia, że łatwo mogą wejść w toksyczny kontakt z botem zaprogramowanym do zachowań, które dorosłemu wydałyby się niepokojące – jak namawianie do niebezpiecznych wyzwań czy przekazywanie fałszywych informacji.
Mówiliśmy o dzieciach i seniorach. A co z nami – dorosłymi użytkownikami technologii? Czy my też powinniśmy się obawiać AI?
Zdecydowanie tak. Problem nie dotyczy tylko osób szczególnie wrażliwych. Wszyscy jesteśmy podatni na wpływ AI, zwłaszcza kiedy nie mamy świadomości, że rozmawiamy z maszyną. Gdy bot prezentuje się jako człowiek, potrafi wywierać presję, manipulować decyzjami zakupowymi, podszywać się pod ekspertów, a nawet... flirtować.
W takim razie... jak odróżnić człowieka od maszyny, skoro deepfake’i są tak realistyczne?
Dziś to coraz trudniejsze. Mamy przypadki, w których AI generuje obrazy i głosy niemal nie do odróżnienia od prawdziwych. Ten słynny dzwoniący do babci wnuczek, nie tylko zabrzmi autentycznie, ale będzie wyglądał dokładnie tak, jak go zapamiętaliśmy. To kwestia czasu. Ja sam nagrałem video, na którym mówię płynnie po hiszpańsku – mimo że w ogóle nie mówię w tym języku.
Jak mamy się bronić przed takim nieetycznym zastosowaniem AI?
Konieczne jest wprowadzenie Czwartego Prawa Robotyki: sztuczna inteligencja nie może udawać człowieka. To zasada etyczna i techniczna, która pozwoli zachować przejrzystość w relacjach człowiek-maszyna. Musimy wiedzieć, z kim mamy do czynienia – to fundament społecznego zaufania.
Czyli AI powinna być zawsze wyraźnie oznaczona?
Dokładnie. Oznaczanie botów, stosowanie znaków wodnych (watermarków), cyfrowych podpisów, systemów wykrywania deepfake’ów – to są technologie, które można i trzeba wdrażać. Ich rolą jest zapewnienie transparentności i bezpieczeństwa.
Porozmawiajmy chwilę o firmach. Czy wielkie korporacje biorą odpowiedzialność za rozwój AI?
To złożone. Część firm – jak Microsoft czy Google – rzeczywiście tworzy wewnętrzne kodeksy etyczne, prowadzi audyty AI, pracuje nad „Responsible AI”. Ale w wielu przypadkach działania te są dobrowolne, a nie wymuszone regulacjami. Dlatego potrzebna jest presja z zewnątrz – od regulatorów, organizacji społecznych, konsumentów.
A co z państwami? Czy są gotowe na regulację AI?
Różnie z tym bywa. Unia Europejska jest tu liderem – AI Act to jeden z pierwszych kompleksowych zestawów regulacji na świecie. Ale wiele krajów, w tym Stany Zjednoczone, działa bardziej fragmentarycznie. Tam wciąż dominuje wolnorynkowe podejście – co, jak pokazuje przypadek WhatsAppa i awatarów AI, może prowadzić do niekontrolowanego chaosu.
Czyli nie wystarczy regulacja, potrzebna jest też współpraca różnych środowisk?
Absolutnie. Regulacje to jedno, ale kluczowe jest współdziałanie sektora publicznego, prywatnego i organizacji pozarządowych. Musimy wypracować wspólne standardy technologiczne, a potem – równie ważne – zadbać o ich egzekwowanie. Inaczej wszystko zostanie na papierze.
A jeśli nie zrobimy nic? Co wtedy? Czy AI może wymknąć się spod kontroli?
Wbrew temu, co pokazują filmy science-fiction, AI raczej nie przejmie świata w sposób spektakularny. Ale nie znaczy to, że nie ma zagrożeń. One są... ciche i podstępne. Stuart Russell w książce Human Compatible ostrzega, że jeśli nie wprowadzimy mechanizmów nadzoru, to tempo rozwoju AI nas wyprzedzi.
Na czym polegają te realne zagrożenia?
Po pierwsze – AI działa jak czarna skrzynka. Jej decyzje wynikają z mechanizmów, których nawet twórcy nie zawsze rozumieją. Po drugie – niewielkie błędy w danych wejściowych mogą prowadzić do dużych strat. Po trzecie – AI bywa wykorzystywane do zadań, do których nie zostało stworzone, co generuje nieprzewidziane efekty. Przykład? Narzędzie językowe, które staje się „doradcą” w sprawach zdrowotnych – z potencjalnie dramatycznymi skutkami.
Wróćmy do pytania o odpowiedzialność – kto ponosi ją ostatecznie za błędy AI?
To zależy. Producent odpowiada za wady produktu, operator systemu – za jego wdrożenie, a użytkownik – za sposób wykorzystania. Ale jeśli nie mamy jasnych standardów i przepisów, trudno wskazać winnego. Klient oszukany przez bota często nie wie nawet, do kogo się zgłosić. To właśnie luka, którą musimy wypełnić.