Okiem eksperta. Twoja twarz wygląda znajomo, czyli o jeden krok od kontroli biometrycznej

fot. Adobe Stock fot. Adobe Stock
Ostatnio wiele osób bez zmrużenia oka udostępnia swoje zdjęcia w internecie, a konsekwencje mogą być poważne: utrata prywatności, kradzież tożsamości, tarapaty finansowe. Najwyższy czas na serio zadbać o nasze dane!

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Lockdown wiąże się z zamknięciem ludzi w domach i mieszkaniach, pracą zdalną oraz gwałtownym zwiększeniem czasu korzystania z internetu. Wzrosła popularność gier i zabaw online takich, jak "10 Year Challenge", który polega na publikowaniu przez użytkowników zdjęć twarzy sprzed 10 lat na facebookowych profilach. Zabawa cieszy się dużym wzięciem, któż bowiem nie chciałby się poczuć o dekadę młodszym?! 

Zanim jednak naciśnie się przycisk "publikuj" warto pomyśleć o tzw. drugim dnie. I nie chodzi tu o teorie spiskowe, straszenie kogokolwiek, lecz o świadomość tego, w jakim celu i przez kogo może być wykorzystany zebrany materiał. 

Wiem, że mało kto czyta regulaminy serwisów internetowych czy aplikacji mobilnych, ale warto popytać znajomych lub przeszukać fora w internecie, gdyż zdjęcia publikowane w serwisach społecznościowych  stanowią zwykle dane wrażliwe (sensytywne). W przeciwieństwie do zwykłych danych osobowych, które pozwalają na identyfikację konkretnych osób, dane sensytywne dotyczą strefy prywatności, a nawet intymności człowieka. Zaliczamy do nich m. in. informacje dotyczące pochodzenia rasowego lub etnicznego danej osoby, ujawniające przekonania religijne lub światopoglądowe, uwidaczniające poglądy polityczne, dane biometryczne (wygląd twarzy, cechy siatkówki oka, odciski palców, odręczny podpis), dane dotyczące seksualności, w tym orientacji seksualnej. Dane wrażliwe wymagają szczególnej ochrony, a ich przetwarzanie jest generalnie zabronione. 

W epoce cyfrowej wszyscy generujemy ogromne ilości danych, w tym informacje wrażliwe, które dokładnie nas opisują. Niespecjalnie o nie dbamy, sądząc, że wskutek rygorów RODO nikt niepowołany do nich nie ma dostępu, albo że nie ma tam nic ciekawego, albo że nie jesteśmy na tyle ważni, żeby warto było grzebać w naszych danych. Tymczasem wiele firm handluje naszymi danymi osobowymi, analizuje je w sposób zautomatyzowany, opracowuje profile zainteresowań, przekonań i wykorzystuje pozyskaną wiedzę do personalizowania komunikacji. Mniejszy problem jeśli to odbywa się za naszą zgodą, a dane służą do kierowania ofert zakupu produktów lub usług. Gorzej, jeśli ludzie są mało świadomi tego, co dzieje się za ich plecami, a prywatne lub intymne informacje są wykorzystywane do kradzieży tożsamości, śledzenia obywateli lub w połączeniu z tworzeniem tzw. fake newsów służą wpływaniu na zmianę naszych przekonań i decyzji światopoglądowych i politycznych.  

Z pozoru niewinnie wyglądająca zabawa z zdjęciami może prowadzić do nieoczekiwanych skutków i poważnych tarapatów finansowych (np. publiczne dyskredytowanie opinii czy słone pożyczki i kredyty wyłudzone na konto nieświadomych niczego użytkowników). 

Za wszystkimi tymi zadaniami mogą stać mechanizmy sztucznej inteligencji, dzięki którym zadania te wykonywane są znaczniej dyskretniej, szybciej i wydajniej, niż dotychczas.

AI potrafi czytać w nas jak w książkach

AI (Artificial Intelligence), czyli sztuczna inteligencja jest modnym i nośnym terminem. Pojęcia z nią związane takie, jak big data, machine learning, deep learning, itd. są odmieniane przez wszystkie przypadki w mediach i w biznesie, a nawet trafiły do sfery politycznej – jeśli prawdziwe są informacje, że na przebieg wyborów parlamentarnych i prezydenckich na świecie, a także w Polsce miały wpływać zaawansowane kampanie komunikacyjne stosujące mikrotargetowanie, które polega na dokładnym dopasowaniu treści przekazów do preferencji odbiorców z wykorzystaniem sztucznej inteligencji, analiz predykcyjnych big data i uczenia maszynowego. 

AI jest, w uproszczeniu mówiąc, oprogramowaniem informatycznym wykonującym powierzone zadania w sposób uważany przez użytkownika za inteligentny. Umożliwiają jej to zautomatyzowane systemy analityczne, uczące się wraz z upływem czasu i pozyskiwaniem większej ilości danych, zwane uczeniem maszynowym (machine learning). Polega ono na zasilaniu sieci neuronowych danymi przygotowanymi przez analityka danych, a następnie testowaniu w sposób zautomatyzowany. Software wybiera odpowiedzi i weryfikuje ich poprawność dzięki dostępowi do zbioru poprawnych odpowiedzi. W razie potrzeby dokonuje odpowiednich modyfikacji w swoim działaniu. Sieć uczy się i samoczynnie modyfikuje swoje algorytmy, aby udzielać jak najtrafniejszej odpowiedzi i jak najlepiej wykonać powierzone jej zadanie, stając się softwarem coraz bardziej inteligentnym i wytrenowanym.

Deep learning (głębokie uczenie) jest zaawansowaną odmianą uczenia maszynowego wykorzystującego algorytmy wielowarstwowe. Służy np. do doskonalenia technik rozpoznawania głosu i przetwarzania naturalnego języka (NLP), w diagnostyce medycznej, a także do rozpoznawania obrazów i zbierania danych biometrycznych takich, jak wygląd twarzy, cechy siatkówki oka, itp. 

Rozpoznawanie twarzy jest jedną z technologii biometrycznych w największym stopniu dotykających naszej prywatności. Zlokalizowane na twarzy receptory pozwalają mechanizmom sztucznej inteligencji czytać w nas jak w książce. Żadne inne miejsce na ciele nie pozwala lepiej poznać ludzkich uczuć, również tych najbardziej skrytych. 

W tym zakresie duże dokonania ma nasz rodak – Michał Kosiński, adiunkt na amerykańskim Uniwersytecie Stanforda, jeden z twórców algorytmów mających ponoć pomóc Donaldowi Trumpowi wygrać wybory prezydenckie lub wpłynąć zwolennikom brexitu na korzystne wyniki referendum w tej sprawie. 

Pod koniec 2017 roku Kosiński i naukowcy ze Stanforda opublikowali badania dowodzące, iż bazując na kilku zdjęciach twarzy, sztuczna inteligencja potrafi określić orientację seksualną analizowanej osoby z wysoką dokładnością – 83% w przypadku kobiet i aż 91% w przypadku mężczyzn. Upłynęły ponad 2 lata, w ciągu których liczba łańcuszków i innych zabaw w internecie wykorzystujących zdjęcia zwiększyła się zauważalnie, co niewątpliwie poprawiło dokładność przewidywań, dzięki możliwości "trenowania" algorytmów prognostycznych na gigantyczną skalę. 

Naukowiec twierdzi też, że zdjęcia twarzy zawierają na tyle dużo informacji, że można z nich "wyczytać" poglądy polityczne osoby poddanej analizie, poziom jej inteligencji, a nawet skłonność do przemocy. 

Tak szeroką i głęboką wiedzę można w praktyce wykorzystać w dobrych celach – np. do oceny potencjału kandydatów przy rekrutacjach do szkół i na uczelnie, do kontroli dostępu uczestników do imprez masowych, itd. W Ameryce kościoły już teraz używają rozpoznawania twarzy do sprawdzania obecności wiernych, w Wielkiej Brytanii sieci handlowe tropią złodziei w sklepach, a nie tak dawno face recognition posłużyła walijskiej policji do aresztowania poza stadionem kibica podejrzanego o popełnienie przestępstwa. W Chinach za pomocą rozpoznawania twarzy weryfikuje się tożsamość kierowców taksówek, wpuszcza zwiedzających do obiektów turystycznych, a nawet płaci się za zakupy uśmiechem, a ściślej – używając aplikacji rozpoznającej uśmiech :)

Skanowanie twarzy dostępne w najnowszych smartfonach, udzielające właścicielowi dostępu do urządzenia, wygląda naprawdę imponująco ale też rodzi wiele obaw o ochronę prywatności, np. zakres dostępu aplikacji do danych w telefonie, zakres uprawnień udzielanych aplikacji, czy przekazywanie danych na serwery w państwach trzecich.  

Nie ma róży bez ciernia ale już głośnym echem odbiły się protesty środowisk LBGT przeciw możliwościom wykorzystania sztucznej inteligencji i rozpoznawania twarzy, przez nieprzychylne organizacje lub rządy, do zbierania danych i identyfikowania przedstawicieli mniejszości seksualnych, etnicznych, itd. i piętnowania ich czy wtrącania do więzień. Łatwo też wyobrazić sobie wykorzystanie algorytmów face recognition i głębokiego uczenia do odkrywania przekonań religijnych lub światopoglądowych, lub do określania poglądów politycznych osób poddanych analizom i wpływania na decyzje w czasie wyborów. 

Są to przykłady wykorzystania danych w kontrowersyjnych celach – do szerokiego i, co bardziej niepokojące, głębokiego monitorowania lub inwigilowania obywateli. 

Po co nam RODO? Są rzeczy ważniejsze niż prywatność

Wśród decydentów z państw azjatyckich, gdzie administracja śledzi prawie każdy ruch obywateli, dla uproszczenia nazwijmy te kraje Światem Wschodu, spotyka się głosy twierdzące, że wskutek przeregulowania państwa UE na własne życzenie ograniczają sobie możliwości rozwojowe i rezygnują z przewag konkurencyjnych w rywalizacji z państwami Wschodu. 

Obywatele UE oraz tzw. Świata Zachodu uznają prywatność za jedną z najważniejszych zdobyczy demokracji. Jednak w sytuacji epidemii dalsze obostrzenia w zakresie prywatności wymagają ponownego przemyślenia. UE stara się znaleźć odpowiedź na pytanie czy walka z koronawirusem warta jest drastycznego ograniczenia prywatności obywateli. Ale w wielu krajach już i tak się to dzieje. W Hiszpanii do identyfikacji obywateli wykorzystuje się drony. W Grecji przed wyjściem z domu trzeba wysłać SMS ze wskazaniem miejsca wędrówki; w odpowiedzi otrzymuje się kod do pokazania policji w razie weryfikacji. 

Na polskim podwórku trzeba pamiętać, że rozwiązania przymusowe nie sprawdzają się, o czym w przyszłości przekonali się i obcy najeźdźcy, i komunistyczne reżimy. Podobnie uważa współtwórca rządowej aplikacji mobilnej ProteGO, służącej do selektywnej kwarantanny; jedynie dobrowolnie instalowana aplikacja ma szansę upowszechnić się na masową skalę; w przestrzeni publicznej powinna być prezentowana jako przydatne narzędzie, które w razie choroby ostrzeże innych albo da sygnał do odseparowania się, żeby nie zarażać. 

Pandemia katalizatorem automatyzacji  

W warunkach pandemii jesteśmy świadkami przyspieszonego wprowadzania rozwiązań śledzących obywateli i ograniczających ich prywatność. 

W "normalnych" warunkach wdrożenie mechanizmów rozpoznawania twarzy poprzedzone byłoby żmudnymi i długotrwałymi konsultacjami społecznymi, a i tak ich efekty byłyby niepewne. 

W obecnej rzeczywistości wdrożenie technologii monitorujących następuje dużo szybciej. Jeszcze kilka miesięcy temu nie byliśmy w stanie wyobrazić sobie, że ludzie będą pojedynczo wpuszczani do sklepów, że będą stać w dwumetrowych odstępach i nosić maski na ulicach. 

Nie ma co ukrywać, że wszyscy jesteśmy zaskoczeni dotychczasowym przebiegiem zdarzeń, a to nasze zdziwienie jest pogłębiane przez poczucie niepewności jutra. Nikt nie wie jakie metody sprawdzą się w walce z pandemią, jak szybko pojawi się szczepionka, a może ciepła pogoda wyeliminuje wirusa i wiosna 2020 stanie się jedynie złym snem? A co stanie się z naszą prywatnością, jeśli będziemy zmuszeni borykać się z wirusem dwa lata albo dłużej? Im dłużej trwa lockdown, tym łatwiej jest sobie wyobrazić wprowadzenie w UE rozwiązań monitorujących opartych na sztucznej inteligencji, podobnych do stosowanych w Świecie Wschodu. 

Najważniejszy egzamin ludzkości?

Elastyczność i nieskończoność możliwych implementacji i coraz większa dostępność rozwiązań bazujących na sztucznej inteligencji są największymi zaletami tej technologii. 

Odczuwamy je na sobie skanując twarz w celu autoryzacji lub robiąc zdjęcia smartfonem. Bajeczne kolory danego ujęcia i łagodne rozmycia tła są zasługą sztucznej inteligencji zaszytej w naszym telefonie, która stoi za tymi efektami. Może ona kreować piękno, ratować ludzkie życie, pomagać łapać złodziei i przestępców. Inteligentny asystent porozmawia z nami jak kumpel (no prawie), wykona wiele żmudnych zadań, itd. 

Jednakże oprócz jasnych, sztuczna inteligencja ma mroczne strony. 

Analiza zdjęć twarzy umożliwia opracowanie "szczegółowej biometrycznej mapy twarzy" i pozwala ustalić dane dotyczące strefy prywatności, a nawet intymności człowieka: orientację seksualną osoby poddanej analizie, jej pochodzenie rasowe lub etniczne, przekonania religijne lub światopoglądowe, poglądy polityczne, itp. Taka wiedza może być wykorzystana w kontrowersyjnych celach: skrytego wpływania na poglądy polityczne wyborców, zwalczania przeciwników politycznych, piętnowania przedstawicieli różnych mniejszości, wtrącania ich do więzień, itp., a więc do szerokiego i, co bardziej niepokojące, głębokiego inwigilowania obywateli. 

Zawsze sprawdźmy komu i w jakim celu udostępniamy zdjęcie lub inne osobiste dane, szczególnie te wrażliwe i dowiedzmy się przez kogo będzie wykorzystany zebrany materiał. Stosujmy zasadę ograniczonego zaufania (a nawet pewne techniki i tricki obronne, o których może napiszę odrębny wpis ;)). Aby bowiem stworzyć kompletny profil osobowościowy może wystarczyć dosłownie jedno zdjęcie z danej aplikacji, gdyż firmy handlują danymi osobowymi, a zautomatyzowane algorytmy potrafią uzupełnić brakujące informacje sięgając do innych źródeł i powiązań między danymi. 

Nie ma przesady w twierdzeniu, iż od niewinnej zabawy zdjęciami do kontroli biometrycznej dzieli nas dosłownie jeden krok. 

A na koniec pamiętajmy, że sztuczna inteligencja jest narzędziem takim, jak młotek czy nóż. Człowiek może jej użyć zarówno w dobrych, jak i w złych celach. Technologia nie ma przecież ani sumienia, ani moralności. Nimi muszą cechować się ludzie, którzy jej używają. 

W czasach pandemii oraz braku autorytetów, erozji elit i niskiej jakość życia publicznego, egzamin dojrzałości z etyki, do którego stajemy jako społeczeństwo, jest jednym z najważniejszych wyzwań ludzkości.

POLECAMY