Ludzie i maszyny

Grzegorz Sadowski
Grzegorz Sadowski / Fot. Stanisław Różycki
Ludzkość jest zależna od technologii. Ludzkość zaraz będzie od niej zależna w stopniu, który dziś może się wydawać pijaną fantazją. Ale tak właśnie będzie. I ludzkość już dziś musi wiedzieć, gdzie i jak postawić granice między człowiekiem a maszyną. Zadanie jest z gatunku tych mniej trywialnych. Za każdą odpowiedzią kryją się kolejne pytania.
ARTYKUŁ BEZPŁATNY

z miesięcznika „My Company Polska”, wydanie 10/2024 (109)

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Isaac Asimov, do którego opowiadań nawiązujemy na naszej okładce, próbował rozwikłać te kwestie siedem dekad temu (z rozważań Asimova do dziś pełnymi garściami czerpie Hollywood). Stworzył wtedy słynne Trzy Prawa Robotyki. Pierwsze mówi, że robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, by człowiek doznał krzywdy. Po drugie, robot musi być posłuszny rozkazom człowieka, chyba że są one sprzeczne z pierwszym prawem. I po trzecie, robot musi chronić własne istnienie, o ile nie koliduje to z pierwszym lub drugim prawem.

Prawa eleganckie i proste, jednak Asimov już widział nadchodzące problemy. W opowiadaniu „Runaround” robot sSpedy wpada w pętlę logiczną, gdy dostaje rozkaz odzyskania selenu, który jest potrzebny do działania stacji kosmicznej. Rozkaz (zgodny z Drugim Prawem, czyli posłuszeństwem wobec ludzi) zostaje zakłócony przez Trzecie Prawo, które nakazuje robotowi chronić własne istnienie. Speedy, odczuwając konflikt, zaczyna krążyć wokół selenu, nie mogąc ani go zdobyć, ani się wycofać. I zawiesza się. Rozwiązanie – w opowiadaniu – w końcu przynoszą ludzie, wzmacniając zagrożenie ich życia (priorytet Pierwszego Prawa). Ale do dziś to pytanie wciąż nad nami wisi: jak decyzje podejmowane przez AI mogą zostać ograniczone przez konflikty w jej programowaniu? Co, jeśli roboty przejmą od ludzi ich złe cele?

Idźmy dalej. W opowiadaniu „Dowód” pojawia się pytanie o świadomość i wolną wolę robotów. Czy roboty są tylko narzędziami, czy też mogą zyskać moralną podmiotowość? Stephen Byerley, wzięty, przystojny prawnik startujący na burmistrza, jest kandydatem idealnym. Problem w tym, że nie je i nie śpi. Ludzie więc podejrzewają go, że jest robotem. Domagają się od niego dowodu, że jest człowiekiem. Zatrzymajmy się tu na chwilę i załóżmy, że Byerley jest robotem. Jeśli przestrzega wspomnianych trzech praw, to czy robot może być „bardziej ludzki”, czyli moralnie lepszy od ludzi? Czy ludzkość może ustępować miejsca bardziej etycznym maszynom? Pomyślcie, bo to wcale nie jest proste.

Ale to dopiero początek. Pytań jest więcej. Czy tworzenie zaawansowanych maszyn, które mogą odczuwać, myśleć lub mieć świadomość, jest moralnie dopuszczalne? Czy powinniśmy tworzyć roboty, które mogą cierpieć lub mieć pragnienia? Czy roboty mają być odpowiedzialne za swoje czyny? Jakie obowiązki powinny mieć roboty? Czy możemy je uznać za „osoby”? Co w ogóle odróżnia człowieka od maszyny? Jak rozwój inteligentnych robotów wpłynie na strukturę społeczną, zatrudnienie i szeroko – ekonomię? Czy maszyny zastępujące ludzi w pracy są tylko technologicznym postępem, czy prowadzą do społecznych nierówności?

Możecie powiedzieć, że te pytania to pieśń przyszłości, ale one się będą mnożyć. Im dalej w las, tym będzie ich więcej, a odpowiedzi będą coraz bardziej mgliste. Byerley bije człowieka na oczach świadków, by dowieść, że nie jest związany Trzema Prawami Robotyki. Ale Asimov zostawia niedomówienie. Może to było tylko częścią większego, przemyślanego planu robotów? Może bita przez Byerleya osoba też jest robotem i tylko symuluje ból?

Zresztą może ten tekst też napisał robot? Kto wie…

My Company Polska wydanie 10/2024 (109)

Więcej możesz przeczytać w 10/2024 (109) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ