Apokalipsa spinaczy
Grzegorz Sadowski, fot. Midjourneyz miesięcznika „My Company Polska”, wydanie 4/2023 (91)
Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!
Przypuśćmy, że ktoś zaprogramuje i uruchomi sztuczną inteligencję, która ma za zadanie produkcję spinaczy do papieru. AI posiada zdolność uczenia się, dzięki czemu cały czas wymyśla nowe sposoby, by ów cel zrealizować. A dzięki temu, że jest superinteligentna, znacznie inteligentniejsza niż ludzie, jej metody są nowatorskie, nieszablonowe i bardzo sprytne. Jednym słowem, jeśli jest sposób zrobienia spinacza, AI znajdzie ten sposób. I będzie maksymalnie skupiona tylko na tym celu, kierując na niego wszystkie swoje zasoby. Świat zostanie zalany spinaczami. Nie tylko świat. Cała materia organiczna i nieorganiczna, wszystkie elementy rzeczywistości zostaną podporządkowane temu celowi. A ludzie? Ludzie pewnie uznaliby (tak jak i Ty, czytelniku) ten pomysł za absurdalny i niezrozumiały. Ale nie miałoby to żadnego znaczenia. Żadnego, bo ludzie nieprzydatni do realizacji tego celu byliby wyeliminowani. I nikt tego procesu nie mógłby przerwać.
To tylko jeden, niewielki fragment wielowątkowej dyskusji toczącej się na temat sztucznej inteligencji. Paradoks Bostroma jest osią, wokół której padają pytania, jak sprawić, by cele, które ma AI, były tożsame z naszymi i jak utrzymać nad nią kontrolę. I to jeszcze zanim sztuczna inteligencja stanie się superinteligencją zdolną zdominować człowieka. Bostrom zakłada bowiem, że bardzo prawdopodobna jest sytuacja, w której nie będziemy świadomi tego, że stworzyliśmy inteligencję, która potrafi się replikować i stale ulepszać. Że potwór, który nas zniszczy spinaczową apokalipsą, już tu jest.
Paradoks ten doczekał się kilku rozwiązań dających nadzieję, że można tego uniknąć. Jednym z nich jest nieco darwinistyczna „teoria dżungli” Michele Piccione i Ariela Rubinsteina. W skrócie zakłada ona, że każdy podmiot ma swoją moc. I ten, kto ma większą moc, jest też w stanie zdobyć większe zasoby. I teraz załóżmy, że sztuczna inteligencja mająca za cel główny tworzenie spinaczy będzie musiała mieć cele pośrednie, jak chociażby zdobycie władzy. Stworzy więc inteligentny kod z takim właśnie celem. I będzie miała ten sam problem co my. Superinteligentnej sztucznej inteligencji również trudno będzie kontrolować inną sztuczną inteligencję. Spuści bowiem z łańcucha bestię, która będzie chciała nad nią władać. Nasz problem dotyczący kontroli jest więc również problemem kontroli dla AI. Być może da się tak ustawić cele sztucznej inteligencji, by rozumiała problem kontroli i związane z nim ryzyko i nigdy nie doprowadziłaby do uwolnienia swojej mocy.
Być może tak, być może nie. Przed sztuczną inteligencją przestrzegał Stephen Hawking, a teraz robi to Elon Musk, przedstawiając właśnie problem braku kontroli. Warto włączyć się do tych rozważań, bo postęp naukowy i techniczny nie jest linearny, tylko wykładniczy. W dodatku jest sekwencyjny i da się wyróżnić wyraźne fazy wzrostu.
Pomyśl. Jeszcze kilka milionów lat temu nasi przodkowie zwisali sobie na gałęziach drzew pod sklepieniem afrykańskiej dżungli. W kolejnych sekwencjach przyjęliśmy postawę pionową, wykształciliśmy przeciwstawne kciuki, okoliczności sprawiły, że powiększył się nam mózg, co dało nam ogromne zdolności poznawcze, w tym myślenie abstrakcyjne. Potem była rewolucja neolityczna, idee zaczęły się rozprzestrzeniać, rósł potencjał techniczny i gęstość zaludnienia. To doprowadziło do rewolucji przemysłowej: potężnego skoku gospodarczego i rozwojowego. I dziś stoimy na progu kolejnego, jeszcze większego. Problem w tym, że nie wiemy, czy dla nas nie ostatniego. Pytanie, czy dojrzeliśmy do sztucznej inteligencji, pozostaje otwarte.
Więcej możesz przeczytać w 4/2023 (91) wydaniu miesięcznika „My Company Polska”.