AI już dziś jest bardziej przekonująca niż człowiek. Nawet bez dostępu do danych

Sztuczna inteligencja przestała być jedynie narzędziem do wyszukiwania informacji. Stała się potężną siłą, która może wpływać na nasze przekonania, emocje i decyzje. Ale czy ta zdolność przekracza granicę między zwykłą perswazją a manipulacją?
Badania opublikowane w Nature Human Behavior pokazują niepokojącą rzeczywistość: modele AI, wyposażone w podstawowe informacje demograficzne o rozmówcy, są o 64 proc. bardziej przekonujące niż ludzie w internetowych debatach (legendy mówią, że ktoś kiedyś zmienił zdanie po przeczytaniu komentarzy w internecie). Jeszcze bardziej alarmujące jest to, że nawet bez dostępu do danych osobowych, AI nadal przewyższa ludzi w zdolności do zmieniania opinii.
— Dla modeli AI duże wyzwanie stanowią niuanse językowe – zwłaszcza ironia, sarkazm czy ukryte intencje. Problem w tym, że system nie ma dostępu do tonu głosu, mimiki czy kontekstu sytuacyjnego, które dla człowieka są często kluczowe w zrozumieniu komunikatu — wyjaśnia Grzegorz Rogoziński, CGO i współzałożyciel Ambiscale, który brał udział w trenowaniu PLLuM – polskiego dużego modelu językowego. To jednak nie oznacza, że AI nie jest bezbronne.
Perswazja na niespotykaną skalę
Kluczem do skuteczności AI jest spersonalizowana perswazja – dostosowywanie przekazu do psychologicznego profilu odbiorcy. Badania Scientific Reports dowodzą, że modele językowe jak ChatGPT potrafią tworzyć spersonalizowane wiadomości znacznie bardziej wpływowe niż standardowe komunikaty.
— Modele mają też ograniczone możliwości rozumienia szerszego kontekstu rozmowy. Ludzie korzystają z historii relacji, wiedzy o stylu rozmówcy czy nastroju chwili. AI – nawet zaawansowana – często nie ma do tych informacji dostępu — dodaje Rogoziński.
Dzięki analizie cyfrowych śladów behawioralnych, AI może z dużą dokładnością przewidywać cechy psychologiczne użytkowników, w tym orientację seksualną, poglądy polityczne czy skłonności konsumenckie. Te dane stają się bronią w rękach algorytmów, które potrafią crafować przekazy trafiające wprost w nasze słabe punkty.
— Duże znaczenie mają też dane treningowe. Jeśli zawierają one uprzedzenia lub przekłamania obecne w ludzkich wypowiedziach, model może je nieświadomie powielać. Trochę jak dziecko, które uczy się, jak mówić, obserwując dorosłych – powtarza to, co słyszy, nie zawsze rozumiejąc intencje — tłumaczy ekspert z Ambiscale.
Eksperci ostrzegają przed trzema kluczowymi mechanizmami manipulacji przez AI:
- Wykorzystanie momentów wrażliwości – algorytmy potrafią wykrywać chwile, gdy jesteśmy najbardziej podatni na wpływ, np. gdy jesteśmy zmęczeni lub zestresowani.
- Automatyzacja uprzedzeń – jeśli dane treningowe zawierają ludzkie stereotypy i błąd poznawcze, model może je nieświadomie powielać i wzmacniać.
- Niezauważalna personalizacja – użytkownicy często nie zdają sobie sprawy, że treść jest dopasowana specjalnie do nich, co zwiększa jej skuteczność.
Sam Altman, CEO OpenAI, ostrzega przed zjawiskiem „nadludzkiej perswazji" – sytuacją, w której AI osiągnie zdolności przekonywania znacznie przewyższające ludzkie możliwości, jeszcze przed uzyskaniem ogólnej inteligencji.
Konsekwencje? Mogą nadejść szybciej niż się spodziewamy. AI może wpływać na:
- kampanie polityczne mogące wpływać na wyniki wyborów,
- reklamy tak spersonalizowane, że będą niemal niemożliwe do odparcia,
- dezinformacja dostosowana indywidualnie do każdego użytkownika,
- podważenie ludzkiej autonomii w podejmowaniu decyzji.
Polskie doświadczenia z AI
— Pracując przy trenowaniu PLLuM – polskiego dużego modelu językowego – miałem okazję bezpośrednio obserwować, jak ważny jest etap testowania z użytkownikami i jak wiele wniosków da się z niego wyciągnąć. Dzięki takim obserwacjom można lepiej dostosować model do codziennego użycia – nie tylko jako narzędzie do udzielania poprawnych odpowiedzi, ale też jako system, który rozumie ludzi.
Postępy w AI oznaczają, że manipulacja cyfrowa stanie się coraz bardziej wyrafinowana i trudna do wykrycia. Już dziś można tworzyć spersonalizowane kampanie wpływu na tysiące ludzi jednocześnie, przy minimalnych kosztach.
— Ciekawym kierunkiem rozwoju są systemy, które z czasem „uczą się" naszego stylu komunikacji. Dzięki temu mogą lepiej reagować na to, jak się z nimi rozmawia – podobnie jak znajomi z czasem zaczynają rozumieć, kiedy żartujemy, a kiedy nie — kończy Rogoziński.
Pytanie nie brzmi już „czy AI może nas manipulować", ale „jak się przed tym chronić". W erze nadludzkiej perswazji nasza cyfrowa higiena i krytyczne myślenie stają się kluczowe dla zachowania czystej głowy przy podejmowaniu decyzji.