Wywiad

Mówię to ze środka pola bitwy

Fot. Filip Miller

O pierwszej na świecie ambasadzie technologicznej, o zagrożeniach związanych z połączeniem dzikiego kapitalizmu i sztucznej inteligencji, a także o tym, że dzięki polszczyźnie możemy w przyszłości generować dużo ciekawsze rozwiązania niż kultura anglosaska, z Aleksandrą Przegalińską, wykładowcą Akademii Leona Koźmińskiego i ambasadorką konkursu Innovators under 35, rozmawiają Dorota Goliszewska i Alicja Hendler. 

Czy ze sztuczną inteligencją jest tak jak z fintechami, że Polska ma ze dwa lata poślizgu w stosunku do zaawansowanego świata?

Nie jest to jednoznaczne. Sztuczna inteligencja to bardzo rozległy obszar i w niektórych sprawach jesteśmy pionierami. Weźmy robotykę czy tworzenie wirtualnych agentów, czyli moją specjalność. Nie odstajemy tu, jeśli chodzi o standardy, od reszty cywilizacji zachodniej, a zwłaszcza od USA. W innych obszarach są braki. W Stanach na przykład wdraża się testowo nowe rozwiązania, używa ich i o nich dyskutuje, mając do tego solidne podstawy. Autonomiczne samochody jeżdżą po drogach, prowadzone są badania na szeroką skalę, jak to będzie, kiedy włączą się normalnie do ruchu. Inny przykład to Amazon, który profiluje sobie klienta, posiłkując się uczeniem maszynowym. U nas tego nie ma, pewnych rzeczy nie wiemy i nie odbywa się dyskusja. Problemem nie jest to, że nie znamy technologii – przeciwnie, mamy świetnych ekspertów od maszyn, kognitywistów i jest dużo ciekawych projektów startupowych dotyczących finansów, agentów wirtualnych, zautomatyzowanej obsługi. Ale nie ma całościowej wizji adresowanej do  społeczeństwa i doświadczenia po jego stronie, przez  co te tematy wydają się „dziwne”. 

Z czego to wynika? Z zacofania, barier mentalnych?

Może z poczucia zacofania cywilizacyjnego i konieczności doganiania... tak jakby chodziło o przywilej krajów rozwiniętych. A to nieprawda. Każdy kraj powinien się poważnie zastanowić, jaką będzie zmienną w równaniu, którym jest automatyzacja. Czy będziemy te technologie dostarczać, czy tylko z nich korzystać. W Dolinie Krzemowej toczy się dyskusja, jak to będzie w przyszłości: czy pojawi się wyzysk, płacenie danymi za towary i usługi, i jak to będzie rozlokowane. Kto będzie pociągał za sznurki, a kto zostanie końcówką, mając jedynie dane, które można oddać. Cały czas mamy w Polsce poczucie, że musimy się odbić od dna, od bycia zasobem, poddostawcą albo ogonem i w związku z tym nie myślimy o sobie jako o kraju na szczycie drabiny. Tymczasem mamy projekty „na szczycie”. Rynek gier rozwijamy znakomicie. Ale nie widzę, żeby tu był jakiś łańcuch wartości albo klaster. Na razie to inicjatywa kilku podmiotów na tym rynku. Obserwuję ciekawy ferment i są ambitne startupy, które mogłyby startować ze swoim produktem w innych krajach, podbijać USA, lecz nie podbijają, ze względu na bariery kulturowe i brak środków. 

Są na to pieniądze...

Są, ale pytanie, czy trafiają tam, gdzie powinny. Udanej innowacji nie da się nikomu wyrwać z gardła, nie da się powiedzieć: mamy środki publiczne, tak a tak ustalone, i teraz róbcie. Mam wrażenie, że u nas kultura startupowa jednak nie jest stabilna, jest nowa, świeża i dlatego te mechanizmy wsparcia nie są precyzyjne. 

Brakuje prawdziwej strategii?

Tak. Mamy na przykład świetne zespoły od uczenia maszynowego, ale żeby z tego, co wymyślą, zrobić komercyjny produkt, to już jest w naszym kraju problem. Należałoby tworzyć zespoły, w których kompetencje naukowe, merytoryczne, krzyżowałyby się z menedżerskimi. I gdzie byłaby mądra ścieżka rozwoju. Kiedy byłam na festiwalu w Teksasie, przyjechały tam polskie startupy, o ile wiem, na zaproszenie naszej ambasady. Myśl, by ambasada promowała je w ramach flagowych przedsięwzięć technologicznych UE, jest bardzo słuszna. Ale na miejscu nikt się nimi nie zaopiekował. Samo tylko sfinansowanie takiego przyjazdu nie wystarczy. Mam kontakt z pierwszą na świecie ambasadą technologiczną – szwajcarską, która nazywa się Swissnex. Działa w kilku państwach jako ambasada pod potrzeby szwajcarskich innowatorów, naukowców, startupowców, których obsługuje na miejscu. To jest dla mnie działanie rzeczywiście strategiczne. 

We wspieraniu startupów, aby wyszły gdzieś dalej, chodzi o networking, mentoring, partnerstwa strategiczne. Dobry startup ma dobrych dostawców, jest osadzony w dobrym środowisku, wie, z kim współpracuje. Takie przedsięwzięcia dobrze się skalują, gdy mają jakiegoś partnera.  W Polsce mamy dużo pieniędzy na inkubację, i ja to rozumiem, bo jesteśmy krajem, który musi ryzykować. Ale potem dzieją się straszne rzeczy. Najpierw jest pięknie, inkubacja trwa rok, dwa lata, a potem część z tych projektów grzęźnie na mieliźnie. Zostały stworzone, lecz nie ma dla nich rynków i dalszej drogi, startup jest za mały, żeby pojawić się poza Polską, albo za duży, żeby tutaj zostać. I nie ma pieniędzy, by mu pomóc. No i jest jeszcze kwestia zaufania: startupowcy nie chcą oddawać udziałów w swoich firmach, bo boją się funduszy, a te są agresywne i też nie chcą... Mam wrażenie, że jeśli chodzi o kulturę zaufania, nic się u nas nie zmienia. Ludzie boją się utraty kontroli nad startupem, boją się kolejnych faz wzrostu. 

Boją się też kradzieży pomysłów...

To prawda. Na Akademii Leona Koźmińskiego prowadzimy zajęcia na temat zarządzania startupami. Studenci prezentują idee, technologie... i część z nich nie chce pokazać swojego projektu. Mówię im: przecież i tak nikt tego nie zrobi. Wszyscy wiemy, jak wygląda model Facebooka, więc siądźcie i róbcie podobny, zobaczycie, dokąd zajdziecie. Rozumiem, że ktoś ma gotową technologię i nie chce, by mu ją podkradli, ale to jest zupełnie inny etap. Ten lęk w tak wczesnej fazie jest symptomatyczny dla Polski. Boją się zaprezentować pomysł, a przecież należy jak najwcześniej z nim wychodzić. Potrzebna jest otwartość, ufność, że nikt nie zrobi nam krzywdy. Powinno być też więcej zaufania do zespołu ze strony funduszu. Mamy tu dużo społecznych barier, a za to brakuje utartych ścieżek i dobrych praktyk, jak dalej inkubować, skalować. Może więc, zamiast ładować pieniądze w kolejne programy inkubacyjne, opracujmy kodeks dobrych praktyk. 

Wróćmy do sztucznej inteligencji. Podobno, aby w jej przypadku programować, przekładać język człowieka na język maszyny, potrzebni są humaniści posiadający nie tyle zdolności lingwistyczne, ile umiejętności dobrego tłumacza, który potrafi uchwycić kontekst. Są też opinie, że polszczyzna może być naszym atutem. 

I tak, i nie. Język polski jest szalenie skomplikowany dla maszyn. Jeśli chce się coś zrobić po polsku, trzeba się nakombinować, żeby maszyna uchwyciła kontekst. Mamy też specyficzną składnię. Kiedyś szyk zdania był ważny, bo to on decydował o tym, czy maszyna zrozumie, że chodzi na przykład o pytanie. Ale dziś można  ten szyk zamieniać, jak się chce. Tego typu nieanglojęzyczna kultura, jak nasza, może w przyszłości generować dużo ciekawsze rozwiązania. Bo im trudniejszy język, tym wyższa efektywność. Problem tkwi jednak głównie w analizie języka naturalnego i w nieopłacalności rozwiązań dla relatywnie małych populacji. Dlatego wszystkie technologie, które używają języka naturalnego, są anglojęzyczne. To jest prosty język. 

Niektórzy obawiają się rozwoju sztucznej inteligencji. Głośno było o ostrzeżeniu Stephena Hawkinga, że ludzkość kręci bat sama na siebie. 

Potem jednak zmienił zdanie i stwierdził, że raczej boi się połączenia sztucznej inteligencji i kapitalizmu. Ta przestroga wydaje mi się prawdziwsza. Jeśli chodzi o samą sztuczną inteligencję, osobliwość nie nadeszła, jeszcze nas sobie nie podporządkowała i wciąż możemy powiedzieć „nie”. Mam tu na myśli pojawienie się tzw. generalnej sztucznej inteligencji, bo tę sztuczną już mamy. Pojawienie się nadczłowieka, technohybrydy, która ma nasze cechy, a jednocześnie pod wieloma względami jest od nas lepsza. Pogłoski o jej nadejściu są mocno przesadzone. Mówię to ze środka pola bitwy. Wiem, że tacy futurolodzy, jak Raymond „Ray” Kurzweil, twierdzą, że to się zdarzy w ciągu kilku dekad. Istnieje możliwość przejścia fazowego, gdzie forma, której nie planowaliśmy, rozwinie się sama, ale bardziej prawdopodobny jest scenariusz ewolucyjny i to może potrwać bardzo długo. A my mamy wciąż moc sprawczą – możemy zdecydować, że chcemy mieć wąsko wyspecjalizowane sztuczne inteligencje, które będą nam pomagać. Jest też możliwa ścieżka hybrydyzacji, która mnie by ucieszyła, gdzie nie budowano by systemów, które poradzą sobie bez nas, ale systemy sprofilowane pod nasze potrzeby, bezpieczne, wzmacniające nasze kompetencje fizyczne. Chodzi o bionikę, egzoszkielety, choć oczywiście jest i druga strona medalu – drony bojowe. 

Czy pani zdaniem przed połączeniem sztucznej inteligencji i kapitalizmu można się obronić?

Jestem o tym głęboko przekonana. Są przykłady. W wyniku debaty publicznej zdecydowaliśmy się pewnych technologii nie inkubować: klonowanie, choć mamy możliwości, zostało zawieszone na kołku. Niektórych technologii nie da się rozwijać, bo prawo tego zakazuje. Znajomy tworzył startup i okazało się, że patenty dotyczące technologii bardzo zbliżonych do jego od lat 70. ma NASA. Istnieją strukturalne zabezpieczenia – wojsko, administracja publiczna zabezpieczają różne rzeczy, gdyż nie chcą, aby były samodzielnie rozwijane, bo wiąże się z tym ryzyko, albo chcą się na tym wzbogacić. Czasami jednak obrona szwankuje, np. o biometrii za mało rozmawialiśmy, a mikrotargetowanie wyborcze zostało szybko wykorzystane w pełnej krasie w przypadku Trumpa i okazało się bardzo skuteczne. Dopiero teraz nadejdzie na to odpowiedź. Ludzie będą próbowali się chronić. Widzę zresztą wyraźny trend, dążenie do zabezpieczania się w sieci na różne sposoby, czego do niedawna nie było. 

Można się wystarczająco schować, nie rezygnując z dobrodziejstw cyfryzacji?

Można! Zakupy robić na Torze, Signalem porozumiewać się ze znajomymi. Schować się przed reklamą, profilowaniem, mikrotargetowaniem. Wymaga to co prawda ogromnego wysiłku i stworzenia systemu, w którym wiele nas będzie omijać. Ukrycie się ma swoją cenę. Najlepiej zrobić „przejście” wspólnie z całym tłumem ludzi. 

Z mechanizmami zrodzonymi z postępu technologicznego w ogóle łączą się dylematy. W Massachusetts Institute of Technology dużo pracuję np. nad przetwarzaniem afektywnym, czyli budowaniem profili zachowań związanych ze śledzeniem sygnałów psychofizjologicznych... 

... strasznie niebezpieczne... 

Ale też może być to super! Na tym polega problem. Na MIT, z myślą o epileptykach, powstała opaska, która precyzyjnie mierzy różne parametry organizmu i ratuje życie ludziom na całym świecie. Pozwala z wyprzedzeniem zasygnalizować atak epilepsji. Przetwarzanie afektywne może mieć fenomenalne zastosowania medyczne, ale i społeczne. Prof. Rosalind Piccard, moja wielka mentorka, która stworzyła tę opaskę, uruchomiła na MIT projekt „Affectiva” wykorzystywany do optymalizacji trailerów filmowych albo reklam pod kątem tego, co się ludziom podoba. Z jednej strony, czemu nie mam dostawać rzeczy, które mi się podobają? Ale z drugiej – pojawia się kwestia prywatności. Tu bowiem oddaję wszystko. Są to wprawdzie afekty, pobudzenia, a nie kompleksowe emocje, lecz zarazem redefiniuje to pojęcie prywatności. Część moich studentów mówi zresztą, że prywatność to koncept miniony. Żyjemy w epoce danych, więc o ile te dane będą bezpieczne, nie ma powodu drzeć szat. 

Godzą się z jej utratą?

Wielu ludzi chętnie zapłaci danymi za to, na czym im zależy. Powiedzmy, że ktoś chce obejrzeć fajny filmik na YouTube, ale serwis ma wtyczkę, która sprawdza, jak mu się to wideo podoba. Pozostaje pytanie, co się z tymi danymi będzie działo, kto i do czego będzie ich używał. Chcę wierzyć, że zostaną wypracowane modele, w których ich cyrkulacja będzie transparentna i uczciwa, abyśmy widzieli to, co widzi system. Można to zrobić, lecz trzeba by przedefiniować nasz system społeczny, ekonomiczny. Zgadzam się z Hawkingiem, że problemem jest tu kapitalizm. Nie per se, ale ten dziki, drapieżny, który dane zabiera i ukrywa. 

Trudno tu o optymizm. Drapieżność, chciwość – na tym można zarobić. 

Mamy z tym poważny problem, ale jeśli chodzi o mobilizację przeciwko pewnym rzeczom, jestem optymistką. Im więcej będziemy o nich rozmawiać, tym będziemy bardziej świadomi. Poza tym debata pomaga myśleć naukowcom, badaczom o tym, jakie rozwiązania tworzyć pod kątem społeczeństwa. Każdy kij ma dwa końce. Jeśli ktoś potrafi wykraść dane, ktoś inny zrobi program, żeby je blokować. Im więcej wiedzy o wątpliwych zastosowaniach danej technologii, tym więcej narzędzi do kontestowania tego, co nam się nie podoba. Może Facebooka za chwilę nie będzie? Ludzie już są niezadowoleni... Proszę zauważyć, że młodzież wybiera chętnie Snapchata, technologię dużo bardziej prywatną. Zafascynowało mnie też badanie przeprowadzone w USA, z którego wynika, że tamtejsze 12-latki świetnie wiedzą, co to jest Tor, jak zrobić zakupy anonimowo. No i pamiętajmy, że rośnie świadomość także w sektorze IT, więc będzie w nim przybywać odpowiednich prac. Nie składamy broni!

----------------------

Aleksandra Przegalińska

Doktor w dziedzinie filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii Uniwersytetu Warszawskiego.

Adiunkt w Center for Research on Organizations and Workplaces w Akademii Leona Koźmińskiego.

Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life.

Aktualnie prowadzi badania w Massachusetts Institute of Technology w Bostonie.

Interesuje się rozwojem nowych technologii, zwłaszcza zaś technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych. 

Moim zdaniem

Najczęściej czytane

Boom na drony

Cztery sposoby na podatki

Kto zyska na ozusowaniu umów zleceń?

Dobre auto na niskie raty

Zamiast dziel i rządź - mnóż i zarządzaj!