Sztuczna inteligencja groźna jak wojna nuklearna. Ludzkość może wyginąć

AI stanowi duże zagrożenie / Fot. Shutterstock.com
AI stanowi duże zagrożenie / Fot. Shutterstock.com
Sztuczna inteligencja może prowadzić do zagłady ludzkości, a redukcja ryzyk związanych z tą technologią powinna być globalnym priorytetem - twierdzą eksperci branżowi i liderzy technologiczni w otwartym liście.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Zminimalizowanie ryzyka wyginięcia, spowodowanego przez AI, powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną, takich jak pandemie i wojna nuklearna - czytamy w oświadczeniu z wtorku.

Sam Altman, CEO współtwórca ChatGPT i OpenAI, a także przedstawiciele działu AI DeepMind w Google oraz Microsoftu wsparli i podpisali krótkie oświadczenie Centrum Bezpieczeństwa AI.

Sprawdź: INTJ

Technologia nabrała tempa w ostatnich miesiącach, po tym jak chatbot ChatGPT został udostępniony do użytku publicznego w listopadzie i szybko zyskał na popularności. W ciągu zaledwie dwóch miesięcy po jego uruchomieniu, osiągnął 100 milionów użytkowników. ChatGPT zdumiał badaczy i ogół społeczeństwa swoją zdolnością do generowania ludzkich odpowiedzi na polecenia użytkowników, napędzając liczne debaty, że AI może zastąpić miejsca pracy i naśladować ludzi.

W najnowszym oświadczeniu stwierdzono, że rośnie dyskusja na temat "szerokiego spektrum ważnych i pilnych ryzyk związanych z AI". Zaznaczono jednak, że może być "trudno wyrazić obawy dotyczące niektórych z najpoważniejszych ryzyk związanych z zaawansowanym AI".

ChatGPT niewątpliwie przyczynił się do znacznie większej świadomości i adopcji AI, ponieważ największe firmy na całym świecie zaczęły ścigać się w rozwijaniu konkurencyjnych produktów i możliwości.

AI budzi obawy

Sam Altman przyznał w marcu br., że jest "trochę przestraszony" AI, ponieważ obawia się, że autorytarne rządy również będą rozwijać takie technologie. Inni liderzy technologiczni, tacy jak Elon Musk z Tesli i były CEO Google Eric Schmidt, ostrzegali przed ryzykami, jakie AI stwarza dla społeczeństwa.

Zobacz: Zarabiaj na Instagramie

W otwartym liście w marcu Musk, współzałożyciel Apple Steve Wozniak i kilku liderów technologicznych wezwali laboratoria AI do zaprzestania szkolenia systemów na bardziej potężne niż GPT-4 - najnowszy duży model języka OpenAI. Wezwali również do sześciomiesięcznej przerwy w tak zaawansowanym rozwoju.

"Współczesne systemy AI stają się teraz konkurencyjne dla człowieka w ogólnych zadaniach" - stwierdzono w liście.

"Czy powinniśmy zautomatyzować wszystkie prace, w tym te satysfakcjonujące? Czy powinniśmy rozwijać nie-ludzkie umysły, które mogą nas ostatecznie przewyższyć liczebnie, przewyższyć intelektualnie, zdezaktualizować i zastąpić? Czy powinniśmy ryzykować utratą kontroli nad naszą cywilizacją?" - zapytano w liście.