Czy roboty będą nas uczyć empatii

Konrad Maj
Konrad Maj, fot. materiały prasowe
Oparty na sztucznej inteligencji robot w przyszłości może zostać naszym szefem – mówi dr Konrad Maj, psycholog społeczny, kierownik Centrum HumanTech na Uniwersytecie SWPS.

Rok temu, w listopadzie, wszyscy żyliśmy debiutem ChataGPT. Sztuczna inteligencja zawitała pod strzechy. Co nam te 12 miesięcy pokazało?

Że ówczesne pogłoski o końcu świata były mocno przesadzone. (śmiech) Świat istnieje nadal, także my, jako ludzie, istniejemy i pracujemy. Nie sprawdziły się różne apokaliptyczne przewidywania, nie ma masowych demonstracji zwolnionych z pracy dziennikarzy ani ulicznych pochodów naukowców krzyczących, że nauka nie ma już sensu.

A co jest?

Świadomość, że choć mamy do czynienia z kolosalną zmianą, to jednak nie z rewolucją. Oswajamy się z tematem. ChatGPT pozostał wprawdzie technologicznym celebrytą, ale doczekał się wielu klonów budzących już znacznie mniejsze emocje niż on. Bardziej racjonalizujemy, niż demonizujemy AI. Mamy wobec niej oczekiwania, ale już nie jesteśmy nią przerażeni.

Pan się nie boi AI?

Strach nigdy nie jest dobrym doradcą. Potrzebujemy raczej odpowiedzialnej refleksji nad tym, jak zaadaptować sztuczną inteligencję do potrzeb ludzkości.

Niedawno przeprowadził pan replikę klasycznego eksperymentu Stanleya Milgrama, tyle że w tej wersji w roli autorytetu nakazującego badanym krzywdzić drugiego człowieka obsadzono sztuczną inteligencję. Skąd pomysł na taką modyfikację?

Zacznę od tego, że przeniesienie nadzoru i decyzyjności na robota od lat budzi silne emocje, co widać chociażby na przykładzie popularności kultowych już dzisiaj filmów, takich jak „Terminator”. Postanowiliśmy sprawdzić, na ile ludzie są skłonni do posłuszeństwa robotom, w końcu rola tych urządzeń we współczesnym świecie jest coraz większa. Coraz częściej wydają nam też one polecenia. Mogą kierować ruchem ulicznym, pełnić funkcję nauczyciela albo zapobiegać wejściu ludzi na obszar zagrożony eksplozją.

To brzmi dobrze.

Niestety nasze posłuszeństwo robotom bywa ślepe. Sprawdzano zachowania ludzi, którym robot pomagał w ewakuacji z budynku objętym rzekomym pożarem. Okazało się, że jesteśmy skłonni słuchać poleceń maszyny nawet wtedy, gdy nie mają one sensu.

To znaczy?

Jako drogę ewakuacyjną robot wskazywał uczestnikom badania ciemne pomieszczenie, gołym okiem widać było, że nie ma tam wyjścia. Mimo to większość ludzi korzystała z podpowiedzi. O ile mi wiadomo, przed nami nikt na świecie nie zbadał jednak naukowo, czy pod wpływem robotów jesteśmy skłonni szkodzić drugiemu człowiekowi. My postanowiliśmy to zrobić.

O eksperymencie Milgrama uczyłem się na studiach i byłem przekonany, że jego powtarzanie zostało zabronione ze względów etycznych.

W klasycznej wersji owszem. W świecie naukowym przez lata badania Stanleya Milgrama traktowane były wręcz jako swoiste tabu. Autor eksperymentu, amerykański Żyd, na początku lat 60. postanowił zbadać w laboratorium mechanizmy, które doprowadziły do II wojny światowej i Holokaustu. Postawił tezę, że Niemcy mają jakąś specyficzną cechę, która popchnęła ich do dokonywania zbrodni. Dlatego zasadnicze badania chciał przeprowadzić w RFN, jednak...

Artykuł dostępny tylko dla prenumeratorów

Masz już prenumeratę? Zaloguj się

Kup prenumeratę cyfrową, aby mieć dostęp
do wszystkich tekstów MyCompanyPolska.pl

Wykup dostęp

Co otrzymasz w ramach prenumeraty cyfrowej?

  • Nielimitowany dostęp do wszystkich treści serwisu MyCompanyPolska.pl
  •   Dostęp do treści miesięcznika My Company Polska
  •   Dostęp do cyfrowych wydań miesięcznika w aplikacji mobilnej (iOs, Android)
  •   Dostęp do archiwalnych treści My Company Polska

Dowiedz się więcej o subskrybcji

My Company Polska wydanie 11/2023 (98)

Więcej możesz przeczytać w 11/2023 (98) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ