Szef Samurai Labs: "Hejt jest darmowym narkotykiem. Kiedy czujesz gniew, nie czujesz bólu" [WYWIAD]

Michał Wroczyński
Fot. materiały prasowe
To koszmarna praca, kiedy codziennie musisz patrzeć na dziesiątki zdjęć z pornografią dziecięcą. Jeden z naszych inwestorów powiedział, że do Czarnobyla, do reaktora, nie można wysyłać ludzi – tak samo jest z cyberprzemocą, niektóre zadania bezpieczniej „zlecić” sztucznej inteligencji - mówi Michał Wroczyński, CEO Samurai Labs.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Samurai Labs to cyberstrażnik, który ma chronić przede wszystkim dzieci przed zagrożeniami w internecie. System opracowany przez deep tech znajduje zastosowanie przede wszystkim w grach i społecznościach online (Discord, fora internetowe), gdzie wyłapuje i blokuje agresywne, krzywdzące oraz niezgodne z prawem komunikaty. Co ważne, robi to również w czasie rzeczywistym, a samo narzędzie – jak przekonują twórcy – jest znacznie dokładniejsze niż te oferowane przez inne podmioty.

Michał Wroczyński - założyciel Samurai Labs - z wykształcenia jest lekarzem, zajmował się psychiatrią i psychoterapią. W wywiadzie dla mycompanypolska.pl mówi o początkach swojego startupu, hejcie oraz nowych technologiach.

Jak to się z Samurai Labs wszystko zaczęło?

Na przełomie 2010/2011 roku zrobiliśmy – we współpracy z Polską Policją – pierwszy na świecie system do wykrywania aktywności pedofilów w internecie. By opracować właściwe rozwiązania, logowaliśmy się „jako dziecko” na najpopularniejsze czaty www. Podejrzane wiadomości pojawiały się w kilka minut.

Już wtedy mieliście doświadczenie z pracą na sztucznej inteligencji?

Wcześniej robiliśmy systemy pozwalające na flirtowanie przez SMS-y. To było kiedyś bardzo popularne – wysyłałeś wiadomość tekstową o treści Monika, a bot na nią odpowiadał. Dosyć szybko staliśmy się mistrzami w rozumieniu i rozpoznawaniu rozmów flirtujacych czy nawet erotycznych. To był z wielu powodów niewłaściwy projekt - ale wtedy tylko taki rynek był dostępny.

"Niewłaściwy"?

Był bardzo dochodowy, ale niezgodny z naszymi przekonaniami. W pewnym momencie odezwała się do nas Komenda Główna Policji, która chciała naszą bazę wiedzy i doświadczenie wykorzystać do ochrony najmłodszych. Stworzyliśmy pierwsze boty udające dzieci i jeśli rozmowa szła w niebezpieczną stronę, to byliśmy w stanie to wykryć i poinformować odpowiednie organy. Właśnie wtedy zdaliśmy sobie sprawę, że wiele złego dzieje się w internecie, a technologia tylko pogłębia ten problem.

Jak w zasadzie działa wasze rozwiązanie? Podejrzewam, że sprowadzanie sprawy wyłącznie do inteligentnego bota byłoby sporym uproszczeniem.

System bardzo dogłębnie analizuje język i sam uczy się z danych, ale przede wszystkim potrafi korzystać z wiedzy pozyskiwanej od ekspertów: psychologów, pedagogów, kryminologów, lingwistów. System przetwarza i przyswaja tę wiedzę, a następnie korzysta z niej podczas analizy do wyciągania wniosków. Potrafi rozróżnić, kiedy dane słowo czy fraza jest użyte do wyrażenia emocji, a kiedy do obrażenia rozmówcy. Potrafi odróżnić neutralną rozmowę o seksie od molestowania czy nękania. Dzięki temu, Samurai jest na tyle precyzyjny, że praktycznie nie wznieca fałszywych alarmów. Działa jak autonomiczny strażnik, który reaguje zanim dziecku stanie się krzywda.

Koncentrujecie się na rozwiązaniach mających chronić najmłodszych. To jedyny obszar waszej działalności?

Działamy m.in. na Discordzie, z którego korzystają zarówno dzieci, jak i dorośli. Cybernękanie dotyczy każdego, ale rzeczywiście szczególną uwagę poświęcamy nastolatkom. Wszelkie badania wskazują, że przemoc w internecie może prowadzić do stanów lękowych i najróżniejszych zaburzeń emocjonalnych, a w skrajnych przypadkach nawet do samobójstw.

Nie tak dawno publikowaliśmy wywiad z Kubą Kawalcem, wokalistą zespołu Happysad. Kuba powiedział wówczas, że na cybernękanie nie są odporne nawet – wydawać by się mogło – silne osobowości.

Mówi się, że epidemia przemocy w internecie nasiliła się wraz z pojawieniem się płatnego hejtu. Różne organizacje polityczne zaczęły opłacać hejterów, co stworzyło pewnego rodzaju krytyczną masę. Hejt jest współczesnym, darmowym narkotykiem. Kiedy czujesz gniew, nie czujesz bólu.

Innym problemem jest wypalenie moderatorów na forach internetowych. Czytałem, że moderatorzy stykają się z takimi zachowaniami cyberprzestępców, że często cierpią wręcz na syndrom stresu pourazowego.

To widać nawet po działaniach Facebooka, który masowo blokował konta, gdyż moderatorzy nie byli w stanie wyłapywać wszystkich szkodliwych treści. To koszmarna praca, kiedy codziennie musisz patrzeć na dziesiątki zdjęć z pornografią dziecięcą. Jeden z naszych inwestorów powiedział, że do Czarnobyla, do reaktora, nie można wysyłać ludzi – tak samo jest z cyberprzemocą, niektóre zadania bezpieczniej „zlecić” sztucznej inteligencji.

Mam wrażenie, że w pewnym stopniu odkłamujecie wizerunek nowych technologii. Mówi się, że to właśnie technologia ma zgubny wpływ na dzieciaki. A wy używacie jej do ich ochrony.

Dużo osób twierdzi, że media społecznościowe wywołały największe fale hejtu. To po części prawda, ale ważniejsze jest, że social media wypełniły pewną lukę emocjonalną, która już istniała. Technologia przyspiesza wiele zjawisk – dawniej szukało się ofiar na podwórku, dziś pedofile mogą konwersować z wieloma osobami z własnego komputera. Dlatego tak ważne jest wykorzystywanie sztucznej inteligencji do właściwych działań.

Wszystko, co dzieje się wokół AI to najważniejsze współczesne trendy w obszarze nowych technologii?

Jeśli popatrzysz na różne działania wielu instytucji – nawet quasi PR-owe – to zawsze straszyło się sztuczną inteligencją. Ostrzegano, że niedługo będzie miała własną świadomość, wyjdzie z komputerów i przejmie kontrolę nad światem. Zobacz, co się dzisiaj dzieje. Dlaczego upada dziennikarstwo? Przez rozwój uczenia maszynowego. Fake newsy w dużym stopniu są tworzone przez AI. Już teraz sztuczna inteligencja powoduje wykluczenia i radykalizację.

Strach przed sztuczną inteligencją jest aż tak powszechny?

Myślę, że tak. Wszystko przychodzi w cyklach. Spójrzmy na GPS – najpierw miały go wyłącznie rządy i James Bond. Potem zaczęły wykorzystywać go największe firmy. Obecnie GPS jest powszechny i dostępny dla każdego. Jesteśmy w momencie, kiedy sztuczna inteligencja jest właśnie w tej drugiej fazie – używają jej przede wszystkim korporacje i duże przedsiębiorstwa. Przecież np. algorytm na Allegro nie działa po to, żebyś miał lepsze życie – jego zadaniem jest to, żebyś więcej wydał w serwisie. Oczywiście to się zmienia, ale stanowczo zbyt wolno.

W jakim stopniu wasze działania są zależne od języka?

To rzeczywiście nie jest system, który sprawdza się w każdym języku – Samurai Labs działa w języku angielskim, gdyż jest najpowszechniejszy, ale z dużą uwagą przyglądamy się temu, jak możemy wykorzystać nasze rozwiązanie np. w Polsce.

To chyba ogromne wyzwanie. Niuansów językowych jest u nas mnóstwo.

Język polski jest bardzo trudny dla ludzi, ale zaskakująco łatwy dla komputerów.

Możesz podać konkretny przykład?

Weźmy odmianę przez przypadki: książka, książki, książce, książką. Dzięki deklikanicji unikamy wieloznaczności, z którymi musimy sobie radzić w przypadku języków pozycyjnych, takich jak język angielski. Skomplikowana gramatyka jest więc atutem, który dostarcza nam bardzo wielu informacji istotnych dla prawidłowego zrozumienia wypowiedzi. Większość obecnych algorytmów za potencjalnie niebezpieczną treść uzna zdanie „nie wierzę, żeby ktokolwiek mógł powiedzieć, że jesteś idiotą”, bo przecież mamy frazę „jesteś idiotą”. Dopiero zrozumienie całej wypowiedzi wskazuje, że użycie tej frazy nie miało na celu obrażenia kogokolwiek.

Granica między cenzurą prewencyjną, a wykryciem rzeczywistej przemocy jest zapewne bardzo cienka.

To jest największe wyzwanie całej branży! Jeśli robilibyśmy to powierzchownie, to musielibyśmy zablokować w zasadzie wszystkich. Bardzo ważne jest też stopniowanie. Jeśli chronisz dzieci, to niedozwolone są już nawet przekleństwa, w przypadku dorosłych przyzwolenie na to jest większe. Samurai Labs nie jest od obrony poprawności języka. Ludzie mogą rozmawiać na dowolne tematy, mogą mocno wyrażać swoje zdanie, ale nie mogą się atakować ani obrażać.

Na czym więc będziecie się skupiać w najbliższych miesiącach?

Chcemy, żeby Samurai mógł pracować również na głosie, zwłaszcza, że w grach online to jest coraz powszechniejsza forma komunikacji. Skupiamy się jednocześnie na pozyskiwaniu funduszów na dalszy rozwój Samuraja.

---

Najlepsze polskie deep techy

Samurai Labs znalazł się w naszym zestawieniu najlepszych polskich deep techów. Ranking znajdziecie TUTAJ.

ZOBACZ RÓWNIEŻ