Postępować jak z bombą atomową

Natalia Domagała
Natalia Domagała, fot. Flash and Wire
Jeśli na czas nie uregulujemy AI, będziemy mieć ogromny problem. Są kraje, które mają dosyć luźne podejście do regulacji. A to rodzi pokusę nadużycia. O tym, jak regulować i jak postępować z AI, rozmawiamy z Natalią Domagałą, ekspertką od etyki sztucznej inteligencji.

Czy sztuczna inteligencja rozumie, czym jest etyka?

Moim zdaniem nie, ponieważ nic nie wskazuje na to, że w algorytmach AI zachodzi głęboki proces myślowy porównywalny z ludzkim. Mówienie, że sztuczna inteligencja cokolwiek rozumie, jest na wyrost, gdyż każdy model działa odtwórczo, na podstawie wprowadzonych danych.

Pytanie należałoby sformułować inaczej: czy ludzie tworzący narzędzia AI rozumieją, czym jest etyka? To jest kluczowe zagadnienie, o czym świadczy wiele przykładów, m.in. z Amazonu sprzed kilku lat – firma użyła algorytmów w procesie rekrutacyjnym, po czym okazało się, że algorytm wybrał samych mężczyzn, bo wcześniej stanowiska, na które prowadzono rekrutację, zajmowali głównie mężczyźni. Model nakarmiono mało wartościowymi informacjami, więc odrzucał CV wskazujące na kobiety. Za tę sytuację nie można jednak winić algorytmu, lecz człowieka, który nie zastanowił się, na ile wprowadzone dane mogą zawierać uprzedzenia. Ten przykład pokazuje, że żadna poważniejsza decyzja nie może być podejmowana wyłącznie przez technologię.

Granica się jednak przesuwa, a pokusa scedowania decyzyjności na AI jest coraz większa. Nawet w wojskowości.

Trochę zachłysnęliśmy się możliwościami sztucznej inteligencji, tymczasem zaufanie do niej powinno być mocno ograniczone. Oczywiście ewentualne negatywne skutki używania prostych narzędzi optymalizujących naszą pracę są znikome, za to pozostawianie im możliwości zdecydowania w sprawie mającej wpływ na ludzkie życie jest co najmniej bezmyślne. Sektor publiczny jest tego świetnym przykładem.

W jakim aspekcie?

Jeśli damy sztucznej inteligencji podjąć decyzję, czy dana osoba ma otrzymać zasiłek, może to spowodować, że pieniądze nie trafią do najbardziej potrzebujących, jeżeli algorytm będzie sformułowany w sposób pogłębiający istniejące nierówności społeczne. Inny przykład: zostaniemy bezpodstawnie zatrzymani na granicy, ponieważ system rozpoznawania twarzy pomyli nas z kimś innym. Narzędzia AI nie są nieomylne, wręcz przeciwnie. W tej sprawie jestem raczej sceptyczna.

Jaki więc powinien być zakres odpowiedzialności sztucznej inteligencji?

Tu nie ma jednoznacznej odpowiedzi. Z pewnością część odpowiedzialności powinna być po stronie firm zajmujących się tworzeniem modeli sztucznej inteligencji. I musi to być obszar ściśle uregulowany na poziomie politycznym. Jeśli jakaś technologia AI – np. autonomiczne samochody – staje się powszechna i zaczyna mieć niebagatelny wpływ na nasze codzienne funkcjonowanie, to kwestii regulacyjnych nie możemy pozostawić wyłącznie firmom technologicznym.

Sztuczna inteligencja rozwija się na tyle dynamicznie, że żadne ważne decyzje jej dotyczące nie mogą być podejmowane przez pojedyncze podmioty – to pogląd, który nawet w branży staje się powszechny. Tylko jak mogłaby wyglądać taka międzynarodowa praca nad regulowaniem AI?

To bardzo trudne zadanie, głównie ze względu na dynamikę, o której wspomniałeś. Powoływanie nowych globalnych organizacji, urzędów czy związków zajmuje zwykle mnóstwo czasu, a my – biorąc pod uwagę szybkość zmian technologicznych – go po prostu nie mamy. Międzynarodowa społeczność powinna się oprzeć na dotychczasowych mechanizmach.

Jakich?

Może jakichś procesach na poziomie ONZ? Wyobrażam sobie, że w organizacji mogłaby powstać specjalna grupa zajmująca się wyłącznie sztuczną inteligencją. Wzorem mogłyby być procesy legislacyjne związane z bronią atomową – skoro ten obszar udało się uregulować, dlaczego z AI miałoby być inaczej? Ważne, by w konsultacjach brały udział różne środowiska zajmujące się sztuczną inteligencją, nie tylko rządy, które przecież nie rozumieją tej technologii tak dobrze jak specjaliści, ale także niezależni eksperci i organizacje pozarządowe niemające żadnego interesu w dynamiczniejszym rozwoju AI,...

Artykuł dostępny tylko dla prenumeratorów

Masz już prenumeratę? Zaloguj się

Kup prenumeratę cyfrową, aby mieć dostęp
do wszystkich tekstów MyCompanyPolska.pl

Wykup dostęp

Co otrzymasz w ramach prenumeraty cyfrowej?

  • Nielimitowany dostęp do wszystkich treści serwisu MyCompanyPolska.pl
  •   Dostęp do treści miesięcznika My Company Polska
  •   Dostęp do cyfrowych wydań miesięcznika w aplikacji mobilnej (iOs, Android)
  •   Dostęp do archiwalnych treści My Company Polska

Dowiedz się więcej o subskrybcji

My Company Polska wydanie 11/2023 (98)

Więcej możesz przeczytać w 11/2023 (98) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ