Były inżynier Google: sztuczna inteligencja może zakończyć ludzkość

Sztuczna inteligencja zagrożeniem - twierdzi Geoff
Sztuczna inteligencja zagrożeniem - twierdzi Geoffrey Hinton / Fot. AP Photo/Noah Berger
Geoffrey Hinton, były inżynier Google'a, mówi że chce "dmuchać w gwizdek" na temat niebezpieczeństw związanych ze sztuczną inteligencją. AI jest bliska do bycia mądrzejszą od nas i może - jak twierdzi - zakończyć ludzkość.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Geoffrey Hinton uważany jest za "ojca chrzestnego sztucznej inteligencji". Niedawno zrezygnował z prestiżowej pracy w Google i alarmuje o zagrożeniach, jakie sztuczna inteligencja stwarza dla ludzkości.

Hinton przez ponad dekadę pracował jako wiceprezes i współpracownik Google'a. Jest odpowiedzialny za przełom technologiczny z 2012 r., który stanowi podstawę obecnych AI, w tym ChatGPT. 

Sprawdź: Ile wynosi zasiłek dla bezrobotnych

W wywiadach dla mediów od czasu odejścia z Google podkreśla, że czuł się zmuszony do "wyjawienia technologii, której był pionierem, obawiając się, że stanie się ona zbyt potężna".

- Jestem tylko naukowcem, który nagle zdał sobie sprawę, że te rzeczy stają się mądrzejsze od nas - powiedział Hinton w wywiadzie dla CNN. I dodal: - Chcę o tym ostrzec. Powinniśmy poważnie martwić się o to, co dzieje się na rynku i jak powstrzymać te rzeczy przed przejęciem nad nami kontroli.

Hinton ogłosił swoją rezygnację niedawno w oświadczeniu dla New York Times. Przyznał wtedy, że "trudno przewidzieć, jak można zapobiec wykorzystaniu AI przez ludzi ze złymi zamiarami do złych rzeczy". Nie chce brać odpowiedzialności za ewentualne problemy, jakie stworzy AI.

Sztuczna inteligencja: inżynier Google nie martwi się w pojedynkę

Hinton nie jest osamotniony w obawach. Wkrótce po tym, jak wspierany przez Microsoft startup OpenAI wprowadził w marcu br. swój najnowszy model AI o nazwie GPT-4, ponad 1000 naukowców i technologów, w tym Elon Musk, podpisało list wzywający do sześciomiesięcznej przerwy w rozwoju AI. Jak twierdzili, obecnie sztuczna inteligencja stanowi poważne zagrożenie dla społeczeństwa i ludzkości. 

Co jednak sprawia, że technologia AI jest potencjalnie mądrzejsza od ludzi? Przede wszystkim sama ilość informacji, do których mają dostęp modele takie jak GPT-4. Sztuczna inteligencja wie "setki razy więcej" niż pojedynczy człowiek i może mieć "znacznie lepszy algorytm uczenia się" niż ludzie. Dzięki temu jest bardziej wydajna w zadaniach poznawczych. 

Sprawdź: Rozdzielność majątkowa po ślubie

Były inżynier Google'a twierdzi, że GPT-4 wykazał zdolność bardzo szybkiego uczenia się nowych rzeczy po przeszkoleniu przez naukowców. Tam, gdzie ludzie muszą poświęcić trochę czasu na naukę i dzielenie się informacjami, systemy AI mogą to zrobić natychmiast. Hinton przekonuje, że stwarza to modelom potencjał do przechytrzenia człowieka. - To zupełnie nowa i lepsza forma inteligencji - powiedział. 

Skuteczne rozpoznawanie zdjęć przez AI

Głównym przełomem Hintona w zakresie sztucznej inteligencji był efekt pracy z 2012 r. Wraz z dwójką studentów z Toronto naukowiec z powodzeniem stworzył algorytm, który analizował zdjęcia i identyfikował wspólne elementy. Algorytm był prymitywny w porównaniu z tym, co zapewniają obecnie dostępne narzędzia AI, ale Google i tak kupiło jego niewielki biznes za 44 mln dol. 

Jedna z osób, która pracowała nad projektem z Hintonem, Ilya Sutskever, pracuje teraz jako główny naukowiec w OpenAI.

Hinton widzi mnóstwo scenariuszy, gdzie AI może zostać wykorzystana w niewłaściwy sposób. Za przykład podaje rozpowszechnianie dezinformacji w celu wpływania na opinie osób np. w kontekście wyborów prezydenckich, albo do prowadzenia wojen. Przestępcy, grupyu terrorystyczne, a nawet całe wrogo nastawione państwa mogą korzystać z AI.

- Nie myślcie ani przez chwilę, że Putin nie stworzyłby hiperinteligentnych robotów, by zabijać Ukraińców - powiedział Hinton w wywiadzie dla MIT Technology Review. - Nie wahałby się ani przez chwilę - dodał.

Zakończyć rozwój sztucznej inteligencji? 

Hinton wzywa do zawarcia globalnego porozumienia, podobnego do konwencji o zakazie broni chemicznej z 1997 r., aby ustanowić międzynarodowe przepisy przeciwko uzbrojonej sztucznej inteligencji.

Biały Dom ogłosił z kolei niedawno własny plan promowania odpowiedzialnego wykorzystywania AI, skoncentrowany na badaniach finansowanych przez rząd i partnerstwach z firmami technologicznymi. 

Prezydent Biden proponuje 140 mln dol. z funduszy federalnych na uruchomienie siedmiu nowych instytutów badawczych, zajmujących się sztuczną inteligencją. "Sztuczna inteligencja jest jedną z najpotężniejszych technologii naszych czasów, ale aby wykorzystać możliwości, jakie stwarza, musimy najpierw ograniczyć związane z nią ryzyko" - napisano w komunikacie prasowym Białego Domu. "Jeśli chodzi o AI, musimy stawiać ludzi i społeczności w centrum, wspierając odpowiedzialne innowacje, które służą dobru publicznemu, jednocześnie chroniąc nasze społeczeństwo, bezpieczeństwo i gospodarkę". 

Biały Dom jasno też podkreślił, że firmy mają podstawową odpowiedzialność za upewnienie się, że ich rozwiązania AI są bezpieczne, zanim zostaną wdrożone lub upublicznione.

ZOBACZ RÓWNIEŻ