AI już dziś jest bardziej przekonująca niż człowiek. Nawet bez dostępu do danych

sztuczna inteligencja
AI już dziś jest bardziej przekonująca niż człowiek / Fot. Shutterstock/VesnaArt
Najnowsze badania pokazują, że modele AI są już bardziej przekonujące niż ludzie w dyskusjach online. Eksperci ostrzegają przed niebezpieczeństwem „nadludzkiej perswazji" – zdolności sztucznej inteligencji do manipulowania naszymi wyborami w sposób niemal nieodczuwalny.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Sztuczna inteligencja przestała być jedynie narzędziem do wyszukiwania informacji. Stała się potężną siłą, która może wpływać na nasze przekonania, emocje i decyzje. Ale czy ta zdolność przekracza granicę między zwykłą perswazją a manipulacją?

Badania opublikowane w Nature Human Behavior pokazują niepokojącą rzeczywistość: modele AI, wyposażone w podstawowe informacje demograficzne o rozmówcy, są o 64 proc. bardziej przekonujące niż ludzie w internetowych debatach (legendy mówią, że ktoś kiedyś zmienił zdanie po przeczytaniu komentarzy w internecie). Jeszcze bardziej alarmujące jest to, że nawet bez dostępu do danych osobowych, AI nadal przewyższa ludzi w zdolności do zmieniania opinii.

— Dla modeli AI duże wyzwanie stanowią niuanse językowe – zwłaszcza ironia, sarkazm czy ukryte intencje. Problem w tym, że system nie ma dostępu do tonu głosu, mimiki czy kontekstu sytuacyjnego, które dla człowieka są często kluczowe w zrozumieniu komunikatu — wyjaśnia Grzegorz Rogoziński, CGO i współzałożyciel Ambiscale, który brał udział w trenowaniu PLLuM – polskiego dużego modelu językowego. To jednak nie oznacza, że AI nie jest bezbronne.

Perswazja na niespotykaną skalę

Kluczem do skuteczności AI jest spersonalizowana perswazja – dostosowywanie przekazu do psychologicznego profilu odbiorcy. Badania Scientific Reports dowodzą, że modele językowe jak ChatGPT potrafią tworzyć spersonalizowane wiadomości znacznie bardziej wpływowe niż standardowe komunikaty.

— Modele mają też ograniczone możliwości rozumienia szerszego kontekstu rozmowy. Ludzie korzystają z historii relacji, wiedzy o stylu rozmówcy czy nastroju chwili. AI – nawet zaawansowana – często nie ma do tych informacji dostępu — dodaje Rogoziński.

Dzięki analizie cyfrowych śladów behawioralnych, AI może z dużą dokładnością przewidywać cechy psychologiczne użytkowników, w tym orientację seksualną, poglądy polityczne czy skłonności konsumenckie. Te dane stają się bronią w rękach algorytmów, które potrafią crafować przekazy trafiające wprost w nasze słabe punkty.

— Duże znaczenie mają też dane treningowe. Jeśli zawierają one uprzedzenia lub przekłamania obecne w ludzkich wypowiedziach, model może je nieświadomie powielać. Trochę jak dziecko, które uczy się, jak mówić, obserwując dorosłych – powtarza to, co słyszy, nie zawsze rozumiejąc intencje — tłumaczy ekspert z Ambiscale.

Eksperci ostrzegają przed trzema kluczowymi mechanizmami manipulacji przez AI:

  • Wykorzystanie momentów wrażliwości – algorytmy potrafią wykrywać chwile, gdy jesteśmy najbardziej podatni na wpływ, np. gdy jesteśmy zmęczeni lub zestresowani.
  • Automatyzacja uprzedzeń – jeśli dane treningowe zawierają ludzkie stereotypy i błąd poznawcze, model może je nieświadomie powielać i wzmacniać.
  • Niezauważalna personalizacja – użytkownicy często nie zdają sobie sprawy, że treść jest dopasowana specjalnie do nich, co zwiększa jej skuteczność.

Sam Altman, CEO OpenAI, ostrzega przed zjawiskiem „nadludzkiej perswazji" – sytuacją, w której AI osiągnie zdolności przekonywania znacznie przewyższające ludzkie możliwości, jeszcze przed uzyskaniem ogólnej inteligencji.

Konsekwencje? Mogą nadejść szybciej niż się spodziewamy. AI może wpływać na:

  • kampanie polityczne mogące wpływać na wyniki wyborów,
  • reklamy tak spersonalizowane, że będą niemal niemożliwe do odparcia,
  • dezinformacja dostosowana indywidualnie do każdego użytkownika,
  • podważenie ludzkiej autonomii w podejmowaniu decyzji.

Polskie doświadczenia z AI

— Pracując przy trenowaniu PLLuM – polskiego dużego modelu językowego – miałem okazję bezpośrednio obserwować, jak ważny jest etap testowania z użytkownikami i jak wiele wniosków da się z niego wyciągnąć. Dzięki takim obserwacjom można lepiej dostosować model do codziennego użycia – nie tylko jako narzędzie do udzielania poprawnych odpowiedzi, ale też jako system, który rozumie ludzi.

Postępy w AI oznaczają, że manipulacja cyfrowa stanie się coraz bardziej wyrafinowana i trudna do wykrycia. Już dziś można tworzyć spersonalizowane kampanie wpływu na tysiące ludzi jednocześnie, przy minimalnych kosztach.

— Ciekawym kierunkiem rozwoju są systemy, które z czasem „uczą się" naszego stylu komunikacji. Dzięki temu mogą lepiej reagować na to, jak się z nimi rozmawia – podobnie jak znajomi z czasem zaczynają rozumieć, kiedy żartujemy, a kiedy nie — kończy Rogoziński.

Pytanie nie brzmi już „czy AI może nas manipulować", ale „jak się przed tym chronić". W erze nadludzkiej perswazji nasza cyfrowa higiena i krytyczne myślenie stają się kluczowe dla zachowania czystej głowy przy podejmowaniu decyzji.

ZOBACZ RÓWNIEŻ