BigTechy oszczędzają na bezpieczeństwie AI. Jedyna nadzieja w kobietach? "Nie chcemy AI tylko na podobieństwo mężczyzn"

BigTechy oszczędzają na bezpieczeństwie AI. Jedyna nadzieja w kobietach? "Nie chcemy AI tylko na podobieństwo mężczyzn"
Fot. shutterstock.
Czy mamy szansę na bezpieczny i moralny internet? To trudne, gdy nawet największe firmy rezygnują z zespołów, które mają czuwać nad tworzeniem odpowiedzialnych aplikacji i eliminować potencjalne zagrożenia już na etapie produkcji. Bezpieczeństwo w sieci to wspólna sprawa, jednak trzeba wyjść od pracy u podstaw. Eksperci apelują, więc do kobiet: “programujcie”. Ich głosu i spojrzenia oraz doświadczeń brakuje bowiem w świecie IT najbardziej.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Internet pozwolił nam na wycieczkę w nieznane. Zaczęliśmy uczyć się nowych rzeczy, poznawać inne kultury i ciekawych ludzi. Wcześniej było to mniej dostępne. Czas i odległość są barierą, którą trudno sforsować, a bez dostępu do internetu to niemal niemożliwe. Odbywaliśmy tę podróż małym kosztem i przecież w pełni bezpiecznie, bo w zaciszu swoich domów. Niestety, ta utopijna wizja dość szybko straciła swój urok.

Ostatnie lata pokazały nam dobitnie, że platformy internetowe stały się bardziej niebezpieczne niż kiedykolwiek. Kradzież danych, wyczyszczone konta w banku, ale też szalejąca mowa nienawiści, streaming treści patologicznych czy stalking, to już niestety wirtualna codzienność. I choć nie brakuje inicjatyw prewencyjnych pomoc często przychodzi za późno. Walka z wiatrakami? Oby nie, bo przecież internet to jeden z najbardziej fascynujących wynalazków w historii naszej planety.

Choć jeszcze nie poradziliśmy sobie z konsekwencjami wymienionych wyżej problemów, rewolucja AI przynosi kolejne wyzwania. Prosty przykład, o którym wspominają internauci: kiedy patrzymy na zdjęcie przedstawiające jakiś niezwykły widok, nieznane nam wcześniej zwierzę, czy zapierający dech w piersiach krajobraz - zaczynamy zastanawiać się, czy to dzieło natury, czy jednak wytwór AI. A to dopiero początek dużo poważniejszych dylematów. 

Bezpieczeństwo i moralność – BigTechy podcinają gałąź

Wydaje się, że największe firmy technologiczne nie bagatelizują problemów. Choćby w aspekcie cyberbezpieczeństwa wydawane są sumy liczone rocznie w miliardach dolarów. Powstała też cała odnoga branży IT – Trust and Security (zaufanie i bezpieczeństwo), która ma stać na straży tego, żeby aplikacje nie tylko były bezpieczne z punktu widzenia zagrożeń płynących od cyberprzestępców, ale też zwracać uwagę na sferę osobistego komfortu użytkowników.

Praca ludzi z tego sektora IT wydawała się najlepszą odpowiedzią na zagrożenia płynące z internetu i z roku na rok wartość tego segmentu rosła. Prognozowano, że do 2024 roku działalność w tym zakresie przyniesie firmom technologicznym nawet 20 miliardów dolarów rocznie.

– Chciałoby się powiedzieć, że upiekły one nawet trzy pieczenie na jednym ogniu. Po pierwsze – zarabiają. Po drugie – dbają o bezpieczeństwo. Po trzecie – dbają o swój wizerunek i lojalność klientów. Jako użytkownicy przynajmniej w warstwie deklaratywnej oczekujemy bezpiecznych aplikacji. Lubimy więc słyszeć, że ktoś o to dba – diagnozuje Jarūnė Preikšaitė, CEO Women Go Tech, litewskiej organizacji, która w Polsce przeprowadza kursy ułatwiające wejście kobietom w świat IT.

Jednak od kilkunastu miesięcy widzimy nieoczekiwany zwrot BigTechów. Gałąź Trust and Security została nagle przycięta w największych firmach z Doliny Krzemowej. Zaczęło się od X/Twittera, potem przez Metę do internetowych serwisów randkowych i wielu innych. Budżety zostały drastycznie ucięte, a co za tym idzie liderzy zespołów zwolnieni lub przeniesieni do innych obowiązków. Wraz z nimi szeregowi pracownicy.

– Gdy wydawało się, że w kwestii bezpieczeństwa został wypracowany pewien konsensus i styl działania, okazało się, że nadal trzeba bić na alarm. Ostatnie miesiące pokazały bowiem, że filozofia Doliny Krzemowej jest zakorzeniona w mentalności wzrostu za wszelką cenę. Gdy akcjonariusze chcą jeszcze większych zysków, to nagle moralność i empatia traci na znaczeniu. Szczególnie dobrze widać to, przy rozwoju sztucznej inteligencji. Tam wydaje się, że szybki zysk jest ważniejszy niż koszty, które poniosą ludzie w codziennym życiu. Jeśli o człowieku nie myślą najwięksi, którzy mają do tego środki i ludzi, to jak mają o to zadbać małe firmy czy start-upy? – podkreśla Jarūnė Preikšaitė z Women Go Tech.

Na potwierdzenie tych słów warto przywołać niedawny konflikt w Open AI. Szef firmy Sam Altman został zwolniony (wkrótce potem przywrócony na swoje stanowisko) m.in. z powodu nastawienia na szybką komercjalizację odkryć związanych z AI (w opinii zarządu firmy, wymienionego po interwencji Microsoftu). Krótko przed decyzją o odebraniu mu władzy, wygłosił przemowę, w której zaznaczył, że wkrótce Open AI ogłosi przełomowe odkrycie (jedno z największych w jego karierze zawodowej).

Alarm w OpenAI: Sztuczna Inteligencja może przerosnąć człowieka w ciągu roku?

Meta rozwiązuje zespół do monitorowania zagrożeń wynikających z AI

Ostatni przykład? Listopad tego roku i działania Mety, lidera technologicznego pod wodzą Marka Zuckerberga. Firma, która ma w swoim portfolio m.in. Facebooka oraz Instagrama, rozwiązała swój zespół Responsive AI, który ponosił odpowiedzialność za monitorowanie i eliminowanie potencjalnych zagrożeń wynikających z rozwoju technologii AI.

Większość pracowników zostanie przeniesiona do działu zajmującego się generatywną sztuczną inteligencją. Są tam potrzebni, bo to właśnie rozwój tego narzędzia ma przynieść firmie krociowe zyski. Dlaczego tam trzeba przede wszystkim dbać o bezpieczeństwo i kwestie moralne? Technologie związane z generatywną sztuczną inteligencją mają zdolność do tworzenia treści, które praktycznie nie można odróżnić od dzieł stworzonych przez ludzi. Mogą posłużyć np. do fabrykowania wypowiedzi polityków, a próba oszustwa „na dziadków” może być łatwiejsza niż kiedykolwiek. AI już potrafi stworzyć głos niemal nie do odróżnienia względem prawdziwego.

Co prawda rzecznik Mety wydał oświadczenie, w którym podkreślił, że bezpieczny i odpowiedzialny rozwój sztucznej inteligencji pozostaje nadal priorytetem. ”Zmiany te mają na celu skuteczniejsze skalowanie działań w celu sprostania przyszłym wyzwaniom. Mimo że większość zespołu RAI zostanie przesunięta do obszaru Gen AI, nadal będą oni wspierać odpowiednie inicjatywy pomiędzy różnymi działami Meta w zakresie odpowiedzialnego wykorzystania sztucznej inteligencji” – czytamy w oświadczeniu Jona Carvilla z Mety.

Decyzja Mety wzbudza jednak pytania dotyczące ich zaangażowania w bezpieczne i etyczne technologie, zwłaszcza że to niepierwsze podobne działania. We wrześniu 2022 roku poinformowano o likwidacji zespołu ds. odpowiedzialnych innowacji.

– Obecność ekspertów ds. etyki w zespołach inżynieryjnych może być co prawda korzystna, jednak ważne jest, aby nadzorowali oni działania Mety w odpowiedni sposób i utrzymywali równowagę między dwoma departamentami firmy. To trudne. Muszą przebić się ze swoim przekazem do liderów zespołów, którzy mają zadysponowany jasny cel – jak najszybszy rozwój sztucznej inteligencji, by wyprzedzić konkurencję i stworzyć produkt, który odmieni nasze życie. Bez względu na koszty – komentuje Jarūnė Preikšaitė z Women Go Tech.

Sam Altman, CEO OpenAI w Warszawie. Transmisja spotkania

Aplikacja od Garbo powie, czy masz na koncie historię przemocy

Według Statisty branża aplikacji randkowych ma w 2023 roku zarobić 3 miliardy dolarów. To dość ważny segment aplikacji społecznościowych. Nie musimy też daleko szukać przykładów opisujących szereg niebezpieczeństw, które są zagrożeniem dla użytkowników.

Misją Garbo, amerykańskiej organizacji non-profit, jest aktywne zapobieganie niebezpieczeństwu w epoce cyfrowej za pomocą technologii i edukacji. Stworzyła wstępną wersję aplikacji, która w szybki sposób jest w stanie określić czy ktoś ma na swoim koncie historię przemocy. Jak zapewniali twórcy aplikacji, mimo iż zapewniała ona balans pomiędzy prywatnością a sprawą ochrony danych, to firmy technologiczne dość szybko zrezygnowały ze współpracy nad rozwojem tego narzędzia. Ich zdaniem nie do przeskoczenia miały być koszty, bo np. w stanie Nowy York sprawdzenie przeszłości innej osoby jest możliwe, ale to wydatek rzędu 95 dolarów. Rezygnują z tego nawet pracodawcy, a co dopiero osoby przed pierwszą randką. Wskazywano też na niską skuteczność, a dowodem miałoby być to, że…zaledwie 3% osób w USA, które doświadczyły przemocy, zgłosiły ją. Cykl milczenia, który należy przerwać, został więc potraktowany jako doskonałą wymówkę.

Jednak trudno wymagać działań na większą skalę, gdy często mamy do czynienia z sytuacją, kiedy użytkownik na platformie społecznościowej spotka się z przemocą, a brakuje odpowiednich narzędzi, żeby ją zgłosić lub są nieużyteczne. Niektóre firmy proszą nawet o wcześniejsze zgłoszenie sprawy na policję, co znacznie wydłuża procedurę zablokowania konta (nie wspominając już o innym ukaraniu) przemocowca.

Sprawa jest poważna, bo ankieta przeprowadzona przez organizację Garbo wykazała, że 36% mężczyzn i 44% ankietowanych kobiet doświadczyło „przemocy fizycznej, seksualnej lub słownej” podczas co najmniej jednej randki w Internecie.

Należy rozliczać BigTechy za problemy, które stworzyły ich aplikacje

Nie ma jednej drogi, aby zapewnić bezpieczeństwo w epoce cyfrowe. Wyczuleni na tym punkcie powinni być ustawodawcy, którzy muszą tworzyć takie zasady prawne, aby możliwe były skuteczne działania wymierzone przeciwko przestępcom.

– Firmy technologiczne nie mogą bowiem mieć nawet okazji, żeby korzystać z prawa jako wymówki. Oprócz kwestii regulacyjnych musimy w dalszym ciągu zmuszać firmy BigTech do rozwiązywania problemów, które stworzyły ich aplikacje. Nawet gdy idea ich produktów jest szczytna, to nie mogą na tym poprzestać, a gdy ich narzędzia spowodowały szkody, muszą je naprawić – mówi Jarūnė Preikšaitė.

BigTechy oszczędzają na bezpieczeństwie AI. Jedyna nadzieja w kobietach? "Nie chcemy AI tylko na podobieństwo mężczyzn"

Przedstawicielka Women Go Tech wskazuje jednak, że i samu użytkownicy internetu powinni brać częściej sprawy w swoje ręce. Jak? Dołączyć do sektora IT. Swoje słowa kieruje szczególnie do kobiet. Z raportu Światowego Forum Ekonomicznego z 2020 roku wynika, że kobiety obsadzają jedynie 26% stanowisk pracy związanych z danymi i sztuczną inteligencji. Dodatkowo podobny raport Instytutu AI Uniwersytetu Stanforda z 2021 roku wykazał, że kobiety stanowią zaledwie 16% zatrudnionych tam na stałe. Przepaść, a przecież umiejętność programowania zależy od indywidualnych zdolności, doświadczenia, nauki i zaangażowania danej osoby, niezależnie od jej płci

– Nasz głos ma znaczenie. Tylko musi zostać usłyszany. W pierwszej kolejności właśnie w samych firmach z sektora IT. Sztuczną inteligencję tworzą ludzie na „swój obraz i podobieństwo”. Głównie mężczyźni, bo ich w sektorze IT jest zdecydowanie więcej. Wszyscy żyjemy w bańkach – mniejszych i większych. Największe zdobycze ludzkości powstają wtedy, gdy udaje się te pułapki przebić. Dlatego ważne jest, aby doceniać różnorodność i różne perspektywy, które kobiety przynoszą do świata programowania. Działalność programistyczna tylko i wyłącznie korzysta z różnorodnych umiejętności, pomysłów i spojrzeń, które mogą przyczynić się do tworzenia lepszego oprogramowania i innowacji. Co ważne, nie tylko w deklaratywnej formie, ale i w praktyce firmy IT mają szeroko otwarte drzwi dla kobiet. Czas to wykorzystać – apeluje Jarūnė Preikšaitė z Women Go Tech.

ZOBACZ RÓWNIEŻ