Regulować AI? W Europie są już konkretne plany
Unia Europejska osiągnęła wstępne porozumienie w sprawie obszernego prawa, które wprowadziłoby zabezpieczenia dla tej technologii. W Chinach żadna firma nie może produkować usługi AI bez odpowiednich zezwoleń, a USA wciąż pracują nad swoim podejściem regulacyjnym.
Podczas gdy amerykański Kongres rozważa ustawodawstwo, niektóre amerykańskie miasta i stany już przyjęły prawa ograniczające używanie AI w obszarach takich jak dochodzenia policyjne i rekrutacja, a prezydent Joe Biden nakazał agencjom rządowym weryfikację przyszłych produktów AI pod kątem potencjalnych ryzyk narodowych lub ekonomicznych.
Dlaczego AI wymaga regulacji?
Już teraz, wykorzystywana w produktach tak różnorodnych jak szczoteczki do zębów i drony, systemy oparte na AI mają potencjał do rewolucjonizowania branż od opieki zdrowotnej po logistykę. Ale zastąpienie ludzkiego osądu uczeniem maszynowym niesie za sobą ryzyko.
Nawet jeśli ostateczne obawy — szybko uczące się systemy AI wymykające się spod kontroli i próbujące zniszczyć ludzkość — pozostają w sferze fikcji, już teraz istnieją obawy, że boty wykonujące pracę ludzi mogą rozpowszechniać dezinformację, wzmacniać uprzedzenia, naruszać integralność testów i prywatność ludzi.
Zależność od technologii rozpoznawania twarzy, która wykorzystuje AI, już doprowadziła do fałszywych oskarżeń o przestępstwa. W zeszłym roku fałszywe zdjęcie AI wybuchu w pobliżu Pentagonu rozprzestrzeniło się w mediach społecznościowych, co chwilowo obniżyło notowania amerykańskich akcji. Alphabet (Google), Microsoft, IBM i OpenAI zachęcili ustawodawców do wprowadzenia federalnego nadzoru nad AI, który, jak mówią, jest konieczny do zagwarantowania bezpieczeństwa.
Co zostało zrobione w USA?
Rozporządzenie wykonawcze Bidena dotyczące AI ustanawia standardy ochrony bezpieczeństwa i prywatności oraz opiera się na dobrowolnych zobowiązaniach przyjętych przez ponad tuzin firm.
Członkowie Kongresu wykazali zainteresowanie uchwaleniem ustaw dotyczących AI, które byłyby bardziej egzekwowalne niż wysiłek Białego Domu, ale ogólna strategia jeszcze się nie wyłoniła. Dwaj kluczowi senatorowie powiedzieli, że przywitaliby ustawodawstwo, które ustanawia proces licencyjny dla zaawansowanych modeli AI, niezależne federalne biuro do nadzoru nad AI oraz odpowiedzialność firm za naruszenie prywatności i praw obywatelskich.
Spośród dotychczas zaproponowanych projektów ustaw, jeden zakazywałby rządowi USA używania zautomatyzowanego systemu do uruchomienia broni jądrowej bez ludzkiego wkładu; inny wymagałby, aby w reklamach politycznych wyraźnie oznaczano obrazy generowane przez AI. Co najmniej 25 stanów USA rozważało w 2023 r. ustawodawstwo związane z AI, a 15 przyjęło ustawy lub rezolucje.
Proponowane ustawodawstwo dążyło do ograniczenia używania AI w decyzjach dotyczących zatrudnienia i ubezpieczeń, opieki zdrowotnej, liczenia głosów czy rozpoznawania twarzy w miejscach publicznych.
Co zrobiła UE?
UE osiągnęła wstępne porozumienie w grudniu nad tym, co ma szansę stać się najbardziej kompleksową regulacją AI.
Ustanowiłaby ona zabezpieczenia przed zastosowaniami AI postrzeganymi jako potencjalnie manipulujące publiką, takimi jak skanowanie twarzy na żywo. Od twórców ogólnych modeli AI wymagano, by zgłaszali szczegółowe podsumowania danych użytych do szkolenia ich modeli, zgodnie z dokumentem UE.
Zaawansowane modele, takie jak GPT-4 OpenAI, podlegałyby dodatkowym zasadom, w tym zgłaszaniu ich zużycia energii i ustanawianiu ochron przed hakerami. Projekt ustawy nadal musi zostać formalnie zatwierdzony przez państwa członkowskie UE i Parlament Europejski. Firmy, które naruszą zasady, mogłyby zostać ukarane grzywnami do 35 milionów euro (37,7 miliona dolarów) lub 7% globalnych przychodów, w zależności od naruszenia i wielkości firmy.