Europa pracuje nad ustawą AI. Chodzi o prawa autorskie
Fot. SuPatMaN/ShutterstockZatwierdzenie stanowi przełomowy moment w wyścigu władz o kontrolę nad AI, która rozwija się z zawrotną prędkością. Prawo, znane jako Europejski Akt AI, jest pierwszym prawem dla systemów sztucznej inteligencji w tej części globu. Chiny, warto dodać, już opracowały projekt zasad mających regulować sposób, w jaki firmy rozwijają generatywne produkty AI, takie jak ChatGPT.
Sprawdź: Kim jest flipper?
Zasady określają wymagania dla dostawców tzw. modeli podstawowych, takich jak ChatGPT, które stały się kluczowym zagadnieniem dla regulatorów, biorąc pod uwagę jak zaawansowane są już teraz. Pojawiają się bowiem obawy, że nawet wykwalifikowani pracownicy mogą zostać wyparci przez bezduszne algorytmy.
Akt AI - co mówią zasady?
Akt AI kategoryzuje zastosowania SI na cztery poziomy ryzyka:
- Niedopuszczalne ryzyko
- Wysokie ryzyko
- Ograniczone ryzyko
- Minimalne lub brak ryzyka
Zastosowania o niedopuszczalnym ryzyku są domyślnie zakazane i nie mogą być wdrażane w bloku europejskim.
Należą do nich:
- Systemy AI wykorzystujące techniki podprogowe, manipulacyjne lub oszukańcze do zniekształcania zachowań
- Systemy AI wykorzystujące podatności jednostek lub konkretnych grup
- Systemy kategoryzacji biometrycznej oparte na wrażliwych atrybutach lub cechach
- Systemy AI wykorzystywane do oceny społecznej lub oceny wiarygodności
- Systemy AI wykorzystywane do oceny ryzyka przewidującego przestępstwa karne lub wykroczenia administracyjne
- Systemy AI tworzące lub rozszerzające bazy danych rozpoznawania twarzy poprzez nieukierunkowane scrapowanie
- Systemy AI wnioskujące o emocje w egzekucji prawa, zarządzaniu granicami, miejscu pracy i edukacji
Kilku prawodawców wzywało też do zwiększenia kosztów, aby obejmowały one np. ChatGPT.
Twórcy modeli podstawowych będą musieli zastosować kontrole bezpieczeństwa, środki zarządzania danymi i łagodzenia ryzyka przed udostępnieniem swoich modeli publicznie. To oczywiście podniesie koszty, co w rezultacie przełoży się też na ceny końcowe usług.
Dostawcy będą musieli też zapewnić, że dane treningowe używane do informowania ich systemów nie naruszają prawa autorskiego.
- Dostawcy takich modeli AI będą musieli podjąć środki w celu oceny i złagodzenia ryzyka dla podstawowych praw, zdrowia i bezpieczeństwa oraz środowiska, demokracji i praworządności - powiedział dla CNBC Ceyhun Pehlivan, radca prawny w Linklaters i współkierownik grupy praktyki telekomunikacyjnej, medialnej, technologicznej w Madrycie. - Podlegaliby również wymogom zarządzania danymi, takim jak badanie przydatności źródeł danych i możliwych uprzedzeń - dodał.
Zobacz: Najniższa krajowa w Niemczech
Mimo że prawo zostało przyjęte przez prawodawców w Parlamencie Europejskim, jest jeszcze daleko do stania się faktycznie obowiązującym prawem.
To nie jest jeszcze obowiązujące prawo
Prywatne firmy miały możliwość rozwijania technologii AI z zawrotną prędkością, dając powstanie systemom takim jak ChatGPT wspieranym przez Microsoft, czy Bard Google'a.
Google w środę w zeszłym tygodniu ogłosił szereg nowych aktualizacji AI, w tym zaawansowany model języka o nazwie PaLM 2, który według firmy przewyższa inne czołowe systemy w niektórych zadaniach.
Nowatorskie chatboty, takie jak ChatGPT, zafascynowały wielu specjalistów swoją zdolnością do generowania ludzkich odpowiedzi na polecenia użytkowników, napędzane przez duże modele języka trenowane na ogromnych ilościach danych.
Celem propozycji UE jest dostarczenie pewnych zasad dla firm i organizacji korzystających z AI.
Zasady wzbudziły jednak obawy w branży technologicznej. Stowarzyszenie Przemysłu Komputerowego i Komunikacyjnego twierdzi, że zakres Aktu AI został zbyt mocno poszerzony i może obejmować formy AI, które są nieszkodliwe.