Nie ma wyłącznika AI

Ian Pearson
Ian Pearson
Najtęższe umysły nie są w stanie dokładnie stwierdzić, kiedy w toku ewolucji pojawiła się świadomość. Gdyby jednak udało nam się określić ten moment, być może udałoby się cały proces zastosować w świecie technologii. A później każda kolejna mutacja AI stawałaby się po prostu coraz inteligentniejsza – mówi futurolog dr Ian Pearson.
ARTYKUŁ BEZPŁATNY

z miesięcznika „My Company Polska”, wydanie 3/2024 (102)

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Czy możliwe jest pojawienie się AI, która przewyższy poziomem ludzką inteligencję?

Tak, po raz pierwszy przed takim zagrożeniem przestrzegałem pod koniec lat 80. Około 1991 r. napisałem artykuł zatytułowany „Kiedy będę miał 64 lata” i taki mój wiek przypada akurat na 2024 r. Zasadniczo stwierdziłem wówczas, że w przypadku sztucznej inteligencji każda kolejna jej mutacja staje się potężniejsza od poprzedniej, choć ta obawa akurat nie sprawdza się w przypadku np. ChatGPT, bo trudno sobie wyobrazić, żeby ten program stał się autonomiczny. To, że algorytm przeczyta wszystko o świadomości nie oznacza, że ją zyska.

Wiele lat temu, kiedy byłem jeszcze młodym inżynierem, czytałem prace Hansa Moravca pracującego dla jednej z dużych firm technologicznych. Futurolog pisał m.in. o neuronach w naszym organizmie, dzięki którym człowiek jest świadomy. Jeśli znaleźlibyśmy sposób, by „przeszczepić” je do maszyny, to jest możliwe, by również i komputer zyskał świadomość – nad czym zresztą pracują już naukowcy i programiści. Ze świadomością jest trochę jak z telewizorem – nie musisz dokładnie wiedzieć, jak działa, ale przy odrobinie wiedzy, pozyskując niezbędne komponenty, jesteś w stanie sam zbudować sprawny TV.

Czym dokładnie według pana jest świadomość?

Moja definicja świadomości od 25 lat jest niezmiennie taka sama – to poczucie doświadczania „czegoś więcej”. To intuicja, która pozwala ci reagować w różnych sytuacjach, choć nie rozumiesz do końca, dlaczego tak się dzieje. Nawet najtęższe umysły nie są w stanie dokładnie stwierdzić, kiedy w toku ewolucji pojawiła się świadomość, gdyby jednak udało nam się określić ten moment, być może udałoby się cały proces zastosować w świecie technologii. A później każda kolejna mutacja AI stawałaby się po prostu coraz inteligentniejsza. Był kiedyś taki film – „Zakazany projekt” – w którym supernowoczesny komputer, poprzez komunikowanie się z innym supernowoczesnym komputerem, zyskuje kontrolę nad systemem rakiet wyposażonym w głowice jądrowe. To niewykluczony scenariusz.

Powiedział pan, że w laboratoriach pracuje się już nad związkiem ludzkich neuronów z maszynami. Gdyby dowolny algorytm – np. ChatGPT – „podłączył” się do takiego laboratorium, być może dowiedziałby się, jak zyskać świadomość.

Tak, to możliwe. Oczywiście zyskanie świadomości łączyłoby się również z umiejętnością odczuwania emocji.

Jakie więc mogłyby być konsekwencje powstania superinteligencji?

To zależy od obszaru, w jakim by działała. Niektórzy – chociażby grupy terrorystyczne – mogliby wykorzystywać ją do realizacji swoich złych, przestępczych celów. Jestem przekonany, że już teraz mnóstwo organizacji chciałoby zawładnąć światem za pomocą technologii, dlatego tak ważne jest, by także ostrzegać o konsekwencjach jej rozwoju. By dyskutować o etyce AI. Oczywiście same słowa niczego nie zmienią, ale musimy chociaż próbować. Uważam, że w przyszłości powinniśmy stworzyć ponadnarodową organizację, która będzie pilnowała, by sztuczna inteligencja nie wymknęła nam się spod kontroli, jednak ona nie zagwarantuje nam bezpieczeństwa.

Ale przynajmniej je zwiększy.

Załóżmy, że taka organizacja stworzy narzędzie, które pomoże nam „wyłączyć” AI, jeśli tylko poczujemy, że robi się groźnie. Ale skoro komputer będzie świadomy, być może wykreuje sobie plan awaryjny na taką okoliczność. Skąd będziemy o tym planie wiedzieć? Dlatego właśnie uważam, że zbudowanie 100-procentowo skutecznej zapory chroniącej nas przed sztuczną inteligencją nie jest możliwe. Nie musisz być przestępcą, by mniej więcej rozumieć, jak zachowuje się przestępca. Poza tym poważne szkody można wyrządzić po prostu przez przypadek, o tym również nie możemy zapominać.

Czy rozwój technologii może spowodować poważniejsze napięcia społeczne?

To trochę dzieje się już teraz, kiedy różne środowiska mówią nam, w jaki sposób możemy używać sztucznej inteligencji. Coś, co dla kogoś będzie etyczne, dla innych niekoniecznie – a to najprostsza droga do konfliktów. Ponadto wciąż żywa jest obawa przed tym, że technologia np. odbierze nam pracę. Jeśli rzeczywiście doszłoby do tego, iż ludzie masowo traciliby pracę przez AI, wyobrażam sobie, że mogliby głośno i stanowczo wyrażać swój sprzeciw wobec sztucznej inteligencji. W filmach bardzo często przedstawia się wizję przyszłości, w której ludzie buntują się przeciwko robotom. Rządy, by uspokoić sytuację, wyprowadzają na ulice wojska. Tak naprawdę nie jesteśmy daleko od równie dystopijnego scenariusza. A że pewne grupy społeczne potrafią się zjednoczyć i skutecznie paraliżować system, widzimy już teraz chociażby w postaci masowych protestów rolników.

Nadmierny optymizm jest więc niewskazany?

Po prostu tłamszenie jakiejkolwiek krytyki wobec rozwoju technologii oraz nieinformowanie o możliwych negatywnych skutkach prac nad sztuczną inteligencją, uważam za bezsensowne. W tej dyskusji stoję po stronie Elona Muska, który od dawna powtarza, że powinniśmy zastanowić się nad wytyczeniem granic w próbach rozwoju AI. Jako inżynier widzę oczywiste niebezpieczeństwa związane z tworzeniem maszyn mogących powodować spustoszenie. Sądzę, że napięcia społeczne będą się wyłącznie pogłębiać. Zresztą skąd mamy mieć pewność, że już teraz nie funkcjonuje jakaś podziemna sieć planująca konkretne działania na wypadek masowych protestów przeciwko sztucznej inteligencji?

A może superinteligencja będzie na tyl inteligentna, że postanowi nas chronić? Dlaczego musimy zakładać od razu negatywny scenariusz?

Oczywiście nie musimy, AI być może okaże się bardzo etyczna i sama rozwiąże najbardziej palące problemy ludzkości: wymyśli skuteczne lekarstwo na raka, zadba o kwestie ekologiczne, wyeliminuje biedę. A do tego sama skonstruuje skuteczny wyłącznik, na wypadek, gdyby chciała zrobić coś złego.

Nie jest tak, że na stworzenie takiego wyłącznika – nawet przez sam algorytm – nie jest już po prostu za późno?

Wyłącznik da się zainstalować wszędzie, inną kwestią jest jego skuteczność, zwłaszcza jeśli dyskutujemy o nowych technologiach. Trochę już o tym mówiłem – nie możemy być pewni, że sztuczna inteligencja nie wymyśli planu awaryjnego na taką okoliczność.

Dodatkowym problemem jest fakt, że w interesie grup przestępczych może po prostu nie leżeć montowanie podobnych bezpieczników, więc światu będzie jeszcze trudniej zareagować w przypadku zagrożenia. Tym, co może wlać nieco optymizmu jest fakt, że superinteligencja, by funkcjonować, będzie potrzebowała gigantycznych mocy obliczeniowych – a takich nie da się skonstruować w przysłowiowej piwnicy, do tego potrzeba będzie wręcz elektrowni atomowych. Przestrzegam jednak przed nadmiernym optymizmem, ponieważ nie można wykluczyć, że wraz z rozwojem technologicznym w przyszłości zniknie bariera związana właśnie z koniecznością użycia ogromnych mocy obliczeniowych.

Wszystko to – zagrożenia, stanie po stronie zwolnienia prac nad AI – nie oznacza, że jestem krytykiem AI, wręcz przeciwnie. Sztuczna inteligencja jest wspaniałym narzędziem, bardzo ułatwiającym nasze życie. Jestem inżynierem kochającym technologię, ale jednocześnie mam świadomość możliwych zagrożeń. Nie wszyscy ludzie mają dobre zamiary, nie możemy o tym zapominać. Przestępcy potrafią być cholernie inteligentni i przebiegli, mogą myśleć o aspektach związanych z rozwojem sztucznej inteligencji, o których jak na razie nie mamy zielonego pojęcia.

A jak rozwój technologiczny może wpłynąć na procesy gospodarcze?

Jakiś czas temu stworzyłem teorię „gospodarki czarnej skrzynki”, w której dosłownie całą pracę wykonywałaby za nas sztuczna inteligencja, wszyscy zarabialibyśmy tyle samo i moglibyśmy całymi dniami leżeć na plaży, popijając piwo. Czy to mogłoby zadziałać? W idealnym świecie zapewne tak, większość ludzi nie chce jednak po prostu odpoczywać, jednostki wciąż myślą o samorozwoju. Sam nie chciałbym żyć w świecie, w którym nie robiłbym niczego pożytecznego i jestem przekonany, że nie tylko ja tak mam. Co więcej, miałbym poczucie, że skoro moje aspiracje wykraczają daleko poza wylegiwanie się na plaży, dlaczego otrzymuję tyle samo co inni? Taki stan rzeczy naturalnie rodziłby kolejne napięcia i konflikty, zapewne ktoś chciałby decydować o wszystkim związanym z AI. To bardzo prosta droga do skrajnie niebezpiecznej dyktatury. Trochę rozmawialiśmy o tym wcześniej – rozwój sztucznej inteligencji rodzi możliwość powstania jednej głównej grupy beneficjentów tego rozwoju. To zresztą dzieje się już trochę teraz.

„Gospodarka czarnej skrzynki” jest raczej dość skrajną perspektywą, ale nie da się ukryć, że AI znacząco zmienia modele pracy. Część zawodów znika, w ich miejscach pojawiają się kolejne.

Od 20 lat powtarzam, że sztuczna inteligencja wpłynie pozytywnie na rynek pracy. Każdy zawód wymagający prostej pracy umysłowej bądź wykonywania powtarzalnych obowiązków bez problemu może zostać zastąpiony przez algorytm, dzięki czemu ludzie są w stanie skupić się na kreatywniejszych zadaniach. Pozostaną natomiast zawody oparte na stałym, fizycznym kontakcie z innymi. Sądzę, że robotnicy czy policjanci na razie nie mają się czym martwić. I oczywiście „bezpieczne” są zawody, nazwijmy to, oparte na emocjach. Rolą pielęgniarek jest nie tylko doglądanie pacjentów – czasem muszą podnieść ich na duchu, wesprzeć, potrzymać za rękę. Sztuczna inteligencja, która nie potrafi odczuwać emocji, nie jest w stanie realizować tych zadań.

Przykład pielęgniarek pokazuje, że na rynku pracy przyszłości poradzą sobie wyłącznie najlepsi. Nie wszystkie pielęgniarki są tak uczynne, jak powinny – wiele z nich po prostu idzie do pracy, chce odbębnić swoje, zgarnąć wynagrodzenie i wrócić do domu. Jeśli założymy, że sztuczna inteligencja będzie do pewnego stopnia świadoma, kiepskie pielęgniarki po prostu zostaną zastąpione przez technologię.

Podczas tej rozmowy poruszyliśmy wiele wątków oraz nakreśliliśmy kilka scenariuszy na przyszłość. Który z nich wydaje się panu najbardziej prawdopodobny?

Jestem zdania, że zdecydowana większość firm technologicznych rozwijających sztuczną inteligencję działa zgodnie z wartościami etycznymi. Jeśli „ci dobrzy” utrzymają się na czele wyścigu prac nad AI, wówczas technologia będzie wykorzystywana przede wszystkim do właściwych celów, z korzyścią dla całej ludzkości. Oczywiście mamy różne poglądy – prawicowe, lewicowe – ale na ogół nie chcemy katastrofy.

Jeśli jednak będziemy mieć pecha i do głosu dojdą „ci źli”, wtedy sztuczna inteligencja może zostać wykorzystana do zawładnięcia światem np. jako narzędzie ucisku – zupełnie jak w filmach science fiction. Mam nadzieję, że dystopijna przyszłość z niebezpiecznym megalomanem u władzy kontrolującym AI nigdy nie nadejdzie, by jednak tak się stało, musimy nieustannie być świadomi możliwych zagrożeń. 

My Company Polska wydanie 3/2024 (102)

Więcej możesz przeczytać w 3/2024 (102) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ