Zaufać - jak to łatwo powiedzieć

Gra Arma 3
Gra Arma 3, fot. materiały prasowe
Czy świat stracił zaufanie do cyfrowych informacji? Fałszywe wiadomości, technologie deep fake, wzmożona aktywność cyberprzestępców – odbiór danych generowanych przez AI bardzo się zmienił. O tym, że trzeba zadbać o cyfrowe zaufanie – wszyscy wiemy. Tylko jak to w zasadzie zrobić?
ARTYKUŁ BEZPŁATNY

z miesięcznika „My Company Polska”, wydanie 2/2023 (89)

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Pod koniec 2022 r. mediami społecznościowymi wstrząsnął klip z „Morganem Freemanem” w roli głównej. – A co jeśli powiem ci, że nie jestem istotą ludzką? – pytała postać widoczna na ekranie, zachęcając do zastanowienia się nad realnością otaczającego nas świata. Cudzysłów został użyty celowo – choć wydawało się, że przemawia do nas słynny hollywoodzki aktor, niewiele ponad minutowe wideo w rzeczywistości okazało się niezwykle realistycznym (a przy tym wręcz przerażającym) deep fake’em. Jego twórcami są holenderski ekspert od sztucznej inteligencji i filmowiec Bob de Jong oraz aktor głosowy Boet Schouwink, którym udało się rozpętać burzliwą dyskusję, nie tylko o wadach i zaletach technologii deep fake. „Już widzę, jak sztaby wyborcze chętnie wykorzystują takie rozwiązania w nadchodzących kampaniach wyborczych”, „Aż boję się pomyśleć, jak niecne zastosowania mogą mieć podobne deep fake” – pisali internauci.

Zamieszanie, jakie wywołał ten klip najlepiej pokazuje, że współcześnie mierzymy się z kryzysem zaufania do cyfrowych treści. Choć o konieczności dbania o cyberbezpieczeństwo przekonuje się już nie tylko na branżowych konferencjach, to paradoksalnie wcale nie jest bezpieczniej, wręcz przeciwnie. Niektórzy przekonują nawet, że internet, jaki obecnie znamy, powinien odejść do lamusa. – Czy w sieci będzie jeszcze po prostu bezpiecznie? Na pewno jesteśmy w stanie osiągnąć większą równowagę pod warunkiem, że stale będziemy o nią walczyć, edukować. Musimy zwalczać zagrożenia, z naszymi działaniami będzie jednak jak z programami antywirusowymi: pojawią się nowe niebezpieczeństwa, w stosunku do których poprzedne rozwiązania przestaną być skuteczne – zauważa Michał Wroczyński, CEO Samurai Labs, a więc deeptechu, którego misją jest przeciwdziałanie przemocy w internecie.

Lek na wszystkie cyberzagrożenia nie powstanie nigdy, musimy być nieustannie czujni.

Zaatakować fake newsem

„Wielka Orkiestra Świątecznej Pomocy zbiera pieniądze wyłącznie od zaszczepionych”. „Ukraińcy od siedmiu lat utrzymują embargo na polskie mięso”. „Krzysztof Piątek nie podszedł do kibiców po przegranym meczu”. To tylko trzy fake newsy, jakie opublikowano w polskich mediach w dniach poprzedzających pisanie tego tekstu. Z danych Eurostatu wynika, że w 2021 r. blisko połowa wszystkich osób w wieku 19–74 lat w Unii Europejskiej widziało nieprawdziwe lub wątpliwe informacje w serwisach informacyjnych i social mediach w ciągu trzech miesięcy poprzedzających badanie. Bardziej powinna nas martwić jednak inna statystyka – zaledwie niespełna jedna czwarta internautów zweryfikowała wiarygodność treści.

Dezinformacja oraz powszechność fake newsów to jedne z najniebezpieczniejszych zjawisk, z jakimi musi mierzyć się współczesne społeczeństwo. Kiedy Rosja zaatakowała Ukrainę, obserwatorzy przewidywali, że konflikt przybierze nie tylko zbrojny wymiar, a niemniej istotne ruchy będą miały miejsce również w warstwie informacyjnej. – Działania wojenne Rosji mają wiele aspektów, a jednym z nich jest intensywna walka informacyjna. Obecnie dostęp do danych i nadzór nad nimi pozwala na manipulacje, sterowanie nastrojami społecznymi, kontrolę infrastruktury krytycznej oraz zasobów – wskazuje Przemysław Szleter, CEO DAC.Digital, firmy informatycznej, która już na początku wojny wsparła inicjatywę #TechForUkraine, mającą na celu udzielenie technologicznego wsparcia m.in. ukraińskim organizacjom społecznym. – Obszar bezpieczeństwa państw opiera się praktycznie całkowicie na sprawnym działaniu cyber space. Tzw. świadomość sytuacyjna organów odpowiedzialnych za obronność opiera się obecnie w 100 proc. na sprawnym działaniu systemów teleinformatycznych, umożliwiając im odpowiednią decyzyjność i kontrolowanie tzw. drabiny eskalacyjnej. Stąd najważniejsze do prowadzenia efektywnej obrony jest posiadanie sprawnych, niezależnych i odpornych na ataki środków wymiany informacji – dodaje Olgierd Mrozik, CEO LemonMind, które realizuje zadania z zakresu cyfrowej transformacji przedsiębiorstw.

O tym, że fake newsy są niezwykle skuteczną bronią świadczy fakt, że nie tylko Rosja stawia na dezinformację. Na szerzeniu niesprawdzonych, nieprawdziwych informacji swoją popularność oparły środowiska antyszczepionkowców, radykalni działacze czy publicyści aspirujący do miana liderów opinii. Kilka miesięcy temu firma Mandiant opracowała raport, który wykazał nagłe pojawienie się wielu chińskich serwisów internetowych, podsycających prochińskie tematy dyskusji oraz zawierające liczne prowokacje.

Co gorsze, internetowe trolle stale szukają nowych sposobów na szerzenie dezinformacji. W minionych miesiącach głośno stało się o wyprodukowanej przez czeskie studio Bohemia Interactive grze „Arma 3”. Produkcja pozwala fanom tworzyć różne scenariusze bitewne z wykorzystaniem maszyn wojennych oraz broni. Choć grafiki wygenerowane przez silnik gry propagandowo wykorzystywano już przy okazji konfliktów zbrojnych w Syrii czy Afganistanie, dopiero wojna w Ukrainie pokazała skalę problemu. W mediach społecznościowych (głównie na TikToku) zaczęły się pojawiać filmiki z gry opisywane jako relacja na żywo z wydarzeń u naszych wschodnich sąsiadów. Klipy okazały się na tyle realistyczne, że na fake newsy dały się nabrać nawet profesjonalne media informacyjne – rumuńska stacja Romania TV wyemitowała dawny film z „Arma 3” rzekomo przedstawiający walki w Ukrainie, a lokalni politycy komentowali to, co widzieli na wyświetlanym wideo. Tamto zdarzenie jeszcze dobitniej pokazało, jak łatwo paść ofiarą manipulacji i dezinformacji. – Z jednej strony schlebia nam, że „Arma 3” tak realistycznie symuluje współczesne konflikty. Z drugiej, martwi nas, że coraz częściej myli się je z prawdziwymi materiałami i wykorzystuje jako propagandę. Próbujemy walczyć z tego typu treściami, chociażby poprzez zgłaszanie ich na platformach, niestety jednak nasze działania nie są na razie wystarczająco skuteczne – czytamy w oświadczeniu studia Bohemia Interactive.

W lutym 2022 r. Fundacja Digital Poland opublikowała raport „Dezinformacja oczami Polaków”, z którego wynika, że ponad 80 proc. Polaków zetknęło się z dezinformacją i fake newsami. – Wyniki badania z jednej strony zdają się uspokajać – bo społeczeństwo jest świadome istnienia zjawiska fake newsów – z drugiej jednak pokazują, że pomimo wiedzy na ich temat są one wciąż niezwykle skutecznym narzędziem. Można by było przypuszczać, że skoro aż 86 proc. Polaków spotkało się z pojęciem fake newsów, a 82 proc. miało z nimi do czynienia, to tak duża świadomość społeczna występowania tego typu przekazów raczej spowoduje, że będziemy na nie wyczuleni. Tymczasem wciąż zbyt często wpadamy w ich pułapkę. Nie dziwi, że najlepiej widać to w dziedzinach takich jak klimat i energetyka oraz zdrowie. – Wykorzystując strach i brak specjalistycznej wiedzy odbiorców najłatwiej siać dezinformację – komentuje Renata Gluza, wydawczyni Konkret24.

Więcej niż sztuczna inteligencja

Ostatnie miesiące należały do algorytmów AI generujących grafiki na podstawie dowolnych zapytań oraz ChatGPT – chatbota od Open AI opartego na systemie sztucznej inteligencji GPT-3, który stał się bodaj najszerzej omawianym postępem związanym z AI. Pierwotnym celem opracowania systemu było stworzenie precyzyjnego modelu języka, który mógłby być używany do zadań związanych z przetwarzaniem języka naturalnego – głównie streszczaniem i tłumaczeniem maszynowym.

Cechą charakterystyczną GPT-3 jest zdolność wyciągania wniosków z wielkich zbiorów danych i generowania na ich podstawie naturalnie brzmiącego tekstu. System jest w stanie uczyć się nowych zadań bez konieczności dodatkowego szkolenia, dzięki czemu stał się jednym z najbardziej uniwersalnych dostępnych obecnie modeli sztucznej inteligencji.

Debata wokół ChatGPT to dyskusja związana z wieloma aspektami życia. Składają się na nią oczywiście obawy związane z zabraniem ludziom pracy (nawet dziennikarze powoli godzą się z faktem, że najprostsze informacje prasowe będzie pisać sztuczna inteligencja...) oraz problemy natury okołoprawnej. Już teraz pojawiły się przypadki, kiedy AI „pomagała” w pisaniu prac dyplomowych, a zawodowi recenzenci nie byli w stanie odróżnić materiału przygotowanego przez człowieka od tego wygenerowanego przez algorytmy sztucznej inteligencji. Więcej – wykładowcy kierunków informatycznych na University College London zdecydowali się na zmianę systemu zaliczania przedmiotów, rezygnując z prac pisemnych. Znany specjalista od plagiatów – Thomas Lancaster – stwierdził wręcz, że ChatGPT jest punktem zwrotnym w edukacji, do którego będą musiały dopasować się szkoły i uczelnie na całym świecie. Oczywiście w sieci pojawiają się już programy, których zadaniem jest wykrycie oszustw i nadużyć, jednak – jak oceniają ich użytkownicy – nie działają one jeszcze w pełni prawidłowo.

Ciekawym zagadnieniem związanym z rewolucją wywołaną przez ChatGPT jest dalsze funkcjonowanie wyszukiwarki Google. „The New York Times” postawił tezę, że AI-owa umiejętność udzielania klarowniejszych i bardziej spersonalizowanych odpowiedzi, pozbawionych jakichkolwiek linków, znacząco wpłynie na spadek popularności dotychczas sprawdzających się wyszukiwarek internetowych.

Dziennikarze amerykańskiego tytułu idą w swych prognozach jeszcze dalej. Przekonują, że nawet jeśli to nie ChatGPT podkopie pozycję Google’a, to z pewnością będą powstawać kolejne rozwiązania oparte o sztuczną inteligencję, wymuszające zmiany, obok których technologiczni giganci nie będą mogli przejść obojętnie. Firmy bigtech powinny mieć świadomość, że AI z całą pewnością zburzy dotychczasowy status quo.

Ryan Reynolds i żarty

Pytanie o to, jak odbudować zaufanie do cyfrowych informacji jest trudne jak nigdy wcześniej – bo i kryzys zaufania jest wyjątkowo poważny. Specjaliści od cyberbezpieczeństwa prześcigają się w zaleceniach, jednak bez mrówczej pracy nad poprawą świadomości społeczeństwa, sytuacja nie ulegnie poprawie. Szacunki firm zajmujących się ochroną w cyfrowym świecie wskazują, że dwa lata temu globalne straty z powodu ataków ransomware przekroczyły 20 mld dol. – Zachowania ludzkie same podsuwają nowe scenariusze, bo hakerzy wykorzystują przede wszystkim nasze emocje. Często jest też tak, że jeśli jakiś sposób ataku się sprawdza, to przenosi się go na inne obszary – mówił na naszych łamach Robert Grabowski, szef CERT Orange Polska.

Według raportu firmy Momentum, w pierwszej połowie 2021 r. inwestorzy przeznaczyli ponad 11 mld dol. na rozwój startupów z segmentu cyberbezpieczeństwa. To gigantyczny wzrost, zwłaszcza że aż ponad 30 inwestycji przekroczyło 100 mln dol. A dbanie o cyberbezpieczeństwo to ciągły proces. Nie może być tak, że właściciel firmy kupi oprogramowanie antywirusowe i na tym zakończy działania ochronne – tłumaczy Zachariasz Kuczkowski, CEO i współzałożyciel startupu Nigriv zajmującego się m.in. kontrolą cyberbezpieczeństwa w firmach.

Żeby jednak nie kończyć pesymistycznie, warto przytoczyć przykład klipu reklamowego, który w minionych dniach zachwycił internautów na całym świecie. Popularny aktor Ryan Reynolds wykorzystał ChatGPT w reklamie własnej marki Mint Mobile. Gwiazdor tłumaczy na filmie, że poprosił system, by ten napisał reklamę dla Mint Mobile głosem Ryana Reynoldsa. – Użyj żartu, przekleństwa, a ludzie niech wiedzą, że wakacyjna promocja firmy wciąż trwa, choć duże firmy komórkowe już dawno zakończyły swoje promocje – instruował Reynolds. Efekty okazały się naprawdę zabawne, ale to już powinniście sprawdzić sami.

My Company Polska wydanie 2/2023 (89)

Więcej możesz przeczytać w 2/2023 (89) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ