Sztuczna inteligencja groźna jak wojna nuklearna. Ludzkość może wyginąć
AI stanowi duże zagrożenie / Fot. Shutterstock.comZminimalizowanie ryzyka wyginięcia, spowodowanego przez AI, powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną, takich jak pandemie i wojna nuklearna - czytamy w oświadczeniu z wtorku.
Sam Altman, CEO współtwórca ChatGPT i OpenAI, a także przedstawiciele działu AI DeepMind w Google oraz Microsoftu wsparli i podpisali krótkie oświadczenie Centrum Bezpieczeństwa AI.
Sprawdź: INTJ
Technologia nabrała tempa w ostatnich miesiącach, po tym jak chatbot ChatGPT został udostępniony do użytku publicznego w listopadzie i szybko zyskał na popularności. W ciągu zaledwie dwóch miesięcy po jego uruchomieniu, osiągnął 100 milionów użytkowników. ChatGPT zdumiał badaczy i ogół społeczeństwa swoją zdolnością do generowania ludzkich odpowiedzi na polecenia użytkowników, napędzając liczne debaty, że AI może zastąpić miejsca pracy i naśladować ludzi.
W najnowszym oświadczeniu stwierdzono, że rośnie dyskusja na temat "szerokiego spektrum ważnych i pilnych ryzyk związanych z AI". Zaznaczono jednak, że może być "trudno wyrazić obawy dotyczące niektórych z najpoważniejszych ryzyk związanych z zaawansowanym AI".
ChatGPT niewątpliwie przyczynił się do znacznie większej świadomości i adopcji AI, ponieważ największe firmy na całym świecie zaczęły ścigać się w rozwijaniu konkurencyjnych produktów i możliwości.
AI budzi obawy
Sam Altman przyznał w marcu br., że jest "trochę przestraszony" AI, ponieważ obawia się, że autorytarne rządy również będą rozwijać takie technologie. Inni liderzy technologiczni, tacy jak Elon Musk z Tesli i były CEO Google Eric Schmidt, ostrzegali przed ryzykami, jakie AI stwarza dla społeczeństwa.
Zobacz: Zarabiaj na Instagramie
W otwartym liście w marcu Musk, współzałożyciel Apple Steve Wozniak i kilku liderów technologicznych wezwali laboratoria AI do zaprzestania szkolenia systemów na bardziej potężne niż GPT-4 - najnowszy duży model języka OpenAI. Wezwali również do sześciomiesięcznej przerwy w tak zaawansowanym rozwoju.
"Współczesne systemy AI stają się teraz konkurencyjne dla człowieka w ogólnych zadaniach" - stwierdzono w liście.
"Czy powinniśmy zautomatyzować wszystkie prace, w tym te satysfakcjonujące? Czy powinniśmy rozwijać nie-ludzkie umysły, które mogą nas ostatecznie przewyższyć liczebnie, przewyższyć intelektualnie, zdezaktualizować i zastąpić? Czy powinniśmy ryzykować utratą kontroli nad naszą cywilizacją?" - zapytano w liście.