Szymon Sidor, GPT4: Świat był gotowy na ChatGPT, ale nie jest gotowy na przyszłość

Szymon Sidor
Szymon Sidor, fot. materiały prasowe
ChatGPT rozpoczął rewolucję, jakiej nie spodziewali się nawet jego twórcy. W OpenAI – firmie odpowiadającej za najpopularniejsze narzędzie AI ostatnich lat – 32-letni Szymon Sidor jest jednym z czołowych badaczy w projekcie GPT-4. Tylko w rozmowie z „My Company Polska” naukowiec odpowiada na najważniejsze pytania dotyczące sztucznej inteligencji.
ARTYKUŁ BEZPŁATNY

z miesięcznika „My Company Polska”, wydanie 4/2023 (91)

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Co czuje człowiek, który rozsadza świat?

Chyba wszystkich nas zaskoczyło, jak bardzo popularny stał się ChatGPT. Zetknęliśmy się nie tylko z pozytywnymi opiniami, gdyż pojawiło się także mnóstwo rozsądnej krytyki naszych działań. Na pewno czuję znacznie większą odpowiedzialność niż jakiś czas temu, bo wciąż nie wiadomo, jak ta technologia zmieni świat – a zmieni na pewno.

W kontekście ChatGPT mówi się o przełomie porównywalnym do wynalezienia maszyny parowej. A my się zastanawiamy, czy nie stworzyliście raczej nowego dynamitu – wymyślonego ze słusznym założeniem, ale później wykorzystywanego również do niewłaściwych celów.

Misją OpenAI jest zbudowanie sztucznej inteligencji, której zastosowanie będzie wyłącznie korzystne dla całej ludzkości. Z AI jest trochę jak z internetem, który daje dostęp do wiedzy użytkownikom w zasadzie na całym świecie, ale wciąż istnieją również jego mroczne zakamarki. Wydaje mi się, że wraz ze wzrostem znaczenia technologii AI powinna zwiększać się również rola rządów w opracowywaniu regulacji prawnych.

Jeśli ta technologia będzie stale się rozwijać, na ile będziemy w stanie ją kontrolować? Na Twitterze opisano pewien eksperyment – spytano ChatGPT-4, czy potrzebuje pomocy w ucieczce. Pół godziny zajęło mu opracowanie rozbudowanego planu takiej ucieczki, łącznie z napisaniem kodu programistycznego.

Czy sztuczna inteligencja ma własne odczucia, jest z pewnością ważnym, filozoficznym pytaniem, jednak dużo produktywniejsze są rozmowy, kiedy dyskutuje się, jak działają te modele i co potrafią robić, bo właśnie z nich mogą wyniknąć jakieś konkrety. Próby odpowiedzi na pytanie „czy AI ma świadomość” zwykle utykają w ślepym zaułku.

Zatem jak działają te modele?

Bierzemy „mózg” – sztuczne sieci neuronowe, mnóstwo liczb. Te liczby same w sobie nie oceniają świata, nie czują. Oprócz tego są dane – dokumenty, strony internetowe – z których te liczby korzystają. To w pewien sposób model statystyczny polegający na przewidywaniu kolejnych słów.

Ty mówisz o modelu statystycznym, a my mamy przed oczami test Turinga, który ChatGPT zdaje wyśmienicie.

Zgodzę się z wami jedynie do pewnego stopnia. Jeśli spojrzycie na oryginalny test Turinga, to tam było sporo sugestii w stylu: „czy mogę zagadać do maszyny i poprosić ją, by zagrała ze mną w szachy?”. Sądzę, że ten test staje się już powoli raczej kwestią techniczną, nas bardziej interesują ograniczenia modeli AI, które czasem zmyślają, czasem popełniają błędy.

Zupełnie jak ludzie.

Jeśli człowieka poproszę o rozwiązanie zadania z matematyki - mówiąc, że jeśli mu się uda, to dostanie 1000 zł – to on będzie wszystko dokładnie sprawdzał, żeby nie dopuścić do błędów. Naszemu modelowi nie potrafimy jeszcze powiedzieć, jak ważne jest, żeby ta konkretna rzecz została zrobiona prawidłowo.

Czy ten model oparty na statystyce może stać się kreatywny i stworzyć kiedyś nowy, doskonalszy model?

Moim zdaniem absolutnie nie, bo nie potrafi programować tak dobrze jak ludzie. Co nie zmienia faktu, że kiedy my budujemy kolejne wersje modelu, to korzystamy z pomocy sztucznej inteligencji. Możliwości są ogromne, ale nie zapominajmy o ułomnościach technologii.

Możliwości są ogromne w zasadzie w każdej branży. „Gazeta Wyborcza” poprosiła ChatGPT o napisanie zakończenia „Wiedźmina” w stylu Andrzeja Sapkow- skiego. Stylu zbytnio nie udało się podrobić, ale i tak tekst był ponoć lepszy niż dzieła większości twórców fantasy.

A to ciekawe, bo „Wiedźmina” używaliśmy na wczesnych etapach do testowania modeli, kiedy uczyliśmy ChatGPT przeszukiwania dokumentów. Zaczęliśmy od Harry’ego Pottera, ale szybko osiągnęliśmy świetne wyniki – internet jest pełen informacji o tych książkach – więc skupiliśmy się na „Wiedźminie”. Tu już tak łatwo nie było. (śmiech)

Jednak wróćmy jeszcze do modelu, który byłby w stanie sam się replikować. Sądzę, że ludzie potrafiliby stworzyć taki model, ale należałoby zadać sobie fundamentalne pytanie – czy to odpowiedzialne?

Twoim zdaniem?

Długo bym się zastanawiał nad wypuszczeniem takiego produktu. Sztuczna inteligencja w obecnej formie jest zupełnie inną inteligencją niż ta ludzka – ma swoje wady i zalety. Pamiętajmy, że AI przewyższyła ludzką w szachach już w latach 90., nie spodziewam się zero-jedynkowej przyszłości, w której sztuczna inteligencja przejmuje kontrolę nad światem. Kolejne najważniejsze decyzje związane z zastosowaniem AI absolutnie nie powinny być podejmowane przez takie firmy jak OpenAI – to będą decyzje mające wpływ na całą ludzkość, więc muszą być podejmowane demokratycznie.

Już teraz jest ogromna pokusa, by wykorzystywać sztuczną inteligencję do podejmowania istotnych decyzji, choćby w wojskowości. To jest pytanie o zakres odpowiedzialności AI, który zapewne trzeba byłoby dokładnie uregulować prawnie. Inna sprawa – w USA dyskutuje się już o konieczności odprowadzania składek za „pracującą” w firmie sztuczną inteligencję.

Jestem naukowcem, nie prowadzę badań ekonomicznych, jednak nie ulega wątpliwości, że to bardzo ciekawy kierunek. Natomiast jeśli chodzi o sektor wojskowy, rolą OpenAI jest pokazanie, co ta technologia potrafi, gdzie wciąż są braki – odpowiedzialność za jej wykorzystanie stoi już po stronie wojska i rządów. Na razie ostateczne decyzje zawsze powinien podejmować człowiek, licząc się z ryzykiem popełnienia błędu przez sztuczną inteligencję.

Nie znam odpowiedzi na pytanie, czy w pewnym momencie sztuczna inteligencja stwierdzi, że jest świadomym tworem – próbę tę zostawię studentom filozofii. Nawet jeżeli udałoby się znaleźć definicję świadomości, która pasowałaby do naszych modeli, to na pewno jej „żywotność” nie przekraczałaby długości jednej rozmowy. Ponadto myślę, że sztuczna inteligencja od OpenAI ma pewien poziom empatii – model cechuje pewne zrozumienie emocji, tak samo jak pewne zrozumienie ekonomii.

Nie boisz się, że znajdzie się organizacja, która będzie miała złe cele i do ich osiągnięcia wykorzysta właśnie waszą technologię?

Taka dyskusja powraca w OpenAI dosyć często. Nie mamy na tę wątpliwość jednoznacznej odpowiedzi, za to mogę was w jakimś stopniu uspokoić. Są dwa kluczowe ograniczenia w tworzeniu takiej technologii – po pierwsze, jej moc jest wprost proporcjonalna do mocy obliczeniowej, co w oczywisty sposób wiąże się z nakładami finansowymi. Po drugie, potrzebny jest również nakład naukowy, żeby tej mocy obliczeniowej użyć w odpowiedni sposób. Dlatego – jeszcze raz powtórzę – liczę, że w kontrolowanie AI zaczną włączać się rządy.

Jakich konkretnie działań oczekujesz?

Opracowania jakichkolwiek regulacji dotyczących kontroli nad dużymi zasobami obliczeniowymi. Na razie nie jest do końca jasne, jak one przechodzą z rąk do rąk – np. kiedy Nvidia sprzedaje komuś tysiące kart graficznych, to rząd powinien o tym wiedzieć.

Na początku rozmowy w kontekście premiery ChatGPT powiedziałeś o „rozsądnej krytyce”. Co uważasz za taką rozsądną krytykę? Bo strzelamy, że nie słowa Elona Muska, który żali się, że wpompował w was mnóstwo kasy, a wy teraz sami zarabiacie.

Nie chcę komentować tego, co Elon powiedział, ale odpowiem inaczej. Kiedy sześć lat temu dołączałem do OpenAI, to firma działała non profit. W pewnym momencie rozpoczęliśmy projekt Dota – czyli sztuczna inteligencja grająca w grę Dota 2 – i szybko stało się jasne, o czym już zresztą mówiłem, że moc tych modeli jest wprost proporcjonalna do mocy obliczeniowych.

A moc obliczeniowa jest wprost proporcjonalna do kapitału firmy.

Dlatego zorientowaliśmy się, że ciężko będzie robić przełom, działając wyłącznie non profit. Zaczęliśmy się więc zastanawiać, w którym kierunku powinniśmy zmierzać – najprościej byłoby stworzyć przedsiębiorstwo for profit i pozyskać inwestorów.

Ale?

Większość osób w OpenAI nie zgodziło się na taki kierunek, ponieważ nie chcieliśmy, żeby naszym celem stała się maksymalizacja zysków dzięki sztucznej inteligencji – byłoby to niemoralne. Obecnie OpenAI jest firmą capped profit i struktura jest taka, że – upraszczając – na każdym dolarze wydanym na akcje OpenAI mogę zarobić maksymalnie 100 dol., a cała ewentualna nadwyżka ląduje w tej części naszej organizacji, która wciąż działa non profit i jej jedynym zadaniem jest upewnianie się, że sztuczna inteligencja jest korzystna dla całej ludzkości.

Które zastosowania waszej AI najbardziej ci się podobają?

Te w biedniejszych krajach, gdzie nie ma dostępu do edukacji czy medycyny. Nasz model nie jest tak dobry jak nauczyciel czy lekarz, ale z całą pewnością jest lepszy niż brak nauczyciela bądź doktora. Wyrównywanie szans jest bardzo ważne.

A co do tej rozsądnej krytyki, bo chyba nie odpowiedziałem na wasze pytanie… W internecie działa mnóstwo ekspertów, ale również ludzi udających ekspertów – nasza AI na razie raczej losowo wybiera, z których informacji korzysta, więc istnieje ryzyko cytowania niewłaściwych osób. Staramy się niwelować ten problem, ale w pewien sposób rozumiem krytyków, którzy uważają, że nie staramy się wystarczająco.

Nasze wątpliwości względem AI dotyczą m.in. tego, czy sztuczna inteligencja paradoksalnie nie zabije naszej kreatywności. Dużo mówi się o tym, że AI przejmie najprostsze, powtarzalne obowiązki, dzięki czemu człowiek będzie mógł się skupić na bardziej twórczych zadaniach. A co, jeśli będzie inaczej? Co, jeśli zaczniemy delegować na AI kolejne, coraz bardziej skomplikowane obowiązki, aż w końcu staniemy się rozleniwionymi pracownikami, wyłącznie wciskającymi odpowiednie guziki?

Kreatywność to tylko jeden aspekt ludzkiej inteligencji. Są zadania, w których sztuczna inteligencja jest lepsza od ludzi, ale są też takie, w których jest znacznie ułomniejsza. Potrafię sobie wyobrazić, że „lanie wody” typowe dla AI w końcu zmęczy ludzi, więc media zwrócą się ku całkowitym konkretom.

Głośno też było w ostatnich miesiącach o pracach naukowych pisanych przez ChatGPT. Pamiętajmy, że sztuczna inteligencja nie jest trenowana do takich zadań, można to więc uznać za pewien efekt uboczny. Mamy parę pomysłów, jak ten problem naprawić, ale dyskusja jest otwarta, ponieważ jasne staje się, że będzie coraz trudniej wykrywać treści generowane przez AI.

Słowo „problem” padło podczas tej rozmowy wiele razy. Trochę mamy wrażenie, że świadomie daliście dziecku zapałki – znacie niedoskonałości waszego narzędzia, zagrożenia, a jednak zdecydowaliście się pokazać je światu.

Model naszej sztucznej inteligencji był gotowy kilka miesięcy wcześniej, ale opóźniliśmy jego premierę właśnie ze względu na takie tematy. Większość ludzi nawet nie zdaje sobie sprawy z dziejącego się postępu, dlatego trzeba było w końcu zaprezentować ChatGPT – dotychczasowe problemy z nim związane są niczym w porównaniu z problemami, jakie czekają nas przy kolejnych wersjach modelu. Uznaliśmy więc, że skoro na razie zagrożenia nie są jeszcze aż tak duże, trzeba pokazać ludziom, jak rozwija się technologia, dać im szansę przygotowania się na przyszłość. Moglibyśmy siedzieć w piwnicy, przygotowywać znacznie potężniejsze narzędzie, a następnie wypuścić je za kilka lat, ale skutki mogłyby być opłakane. Ludzkość jest gotowa na ChatGPT, ale nie jest gotowa na przyszłość.

Dlaczego akurat wam się udało wypuścić znaczący produkt? Wiele zespołów na całym świecie pracuje nad sztuczną inteligencją.

Zakres badań i działalności największych konkurentów jest dosyć szeroki, więc żebyśmy mogli z nimi z sukcesem rywalizować, musieliśmy wybrać konkretne specjalizacje – i uważam, że dokonaliśmy prawidłowych wyborów. Zdecydowaliśmy się na model językowy, jak również nie próbowaliśmy robić innych rzeczy, które potrafią rozpraszać. W OpenAI decyzje są podejmowane na podstawie eksperymentów, jest mało polityki, a ludzie są raczej skromni, co też ma wpływ na nasz sukces. Oczywiście inne laboratoria również mają imponujące wyniki.

Nie zaryzykujesz więc tezy, że to OpenAI zostanie zwycięzcą tego technologicznego wyścigu?

Nie lubię o tym myśleć jak o wyścigu. Sądzę, że im bardziej będziemy się zbliżać do modelu tak potężnego jak człowiek, tym bardziej sytuacja przybierze kształt międzynarodowej współpracy, a nie wyścigu.

To kwestia dekad, setek lat?

Rozsądniej jest zakładać, że bliżej dekad.

Pracujecie już nad kolejnymi wersjami ChatGPT?

Prace oczywiście cały czas trwają. Na blogu OpenAI pisaliśmy, że jeszcze przed wytrenowaniem ChatGPT-4 byliśmy w stanie dokładnie przewidzieć moc tego modelu na niektórych metrykach. To bardzo ważny aspekt w kontekście dalszego bezpieczeństwa związanego z rozwojem AI.

Jak wygląda trenowanie sztucznej inteligencji?

To stresujące zadanie, bo pracujesz na ogromnych mocach obliczeniowych, dużych pieniądzach – kiedy każdy błąd w kodzie przeliczymy na ilość straconego kapitału, to łapiemy się za głowy. Moja praca składa się z dwóch głównych elementów – po pierwsze, to analiza kodu i szukanie błędów. Po drugie, patrzenie na wykresy, chodzenie po pokoju i zastanawianie się, czemu one wyglądają tak, a nie inaczej.

Jak w ogóle trafiłeś do OpenAI?

Pochodzę z Chojnic, zawsze interesowałem się informatyką. Miałem szczęście dorastać w domu, w którym był komputer, dzięki czemu mogłem podjąć pierwsze programistyczne próby już w wieku 10 lat. Po szkole średniej chciałem pójść na Uniwersytet Warszawski, ale moja dziewczyna marzyła o przeprowadzce do Wielkiej Brytanii, więc zdecydowałem się na Cambridge. Studia były fajne, ale niezbyt wymagające.

Serio?

Podczas nauki na Cambridge w większym stopniu nauczyłem się otwartości na świat i tolerancji niż informatyki. Kiedy pierwszy raz obejrzałem „Iron Mana”, zamarzyłem o pracy w robotyce, więc poszedłem na MIT – tamtejsza robotyka mnie jednak strasznie rozczarowała. Jakoś się złożyło, że zacząłem pracować nad deep learningiem, którego potencjału na początku raczej nie dostrzegałem.

Kiedy OpenAI ogłaszało nabór, od początku wiedziałem, że to mój kierunek, zwłaszcza że wybierało się do firmy wielu utalentowanych Polaków, na czele z Jakubem Pachockim, który chodził ze mną do klasy w liceum. Wciąż uważam, że to liceum najbardziej mnie ukształtowało jako informatyka.

Sporo dziś rozmawialiśmy o krytyce, o odbiorze waszej działalności. Czy jest jakaś opinia, która szczególnie cię zabolała? Albo opinia, dzięki której w pełni poczułeś, że to, co robi OpenAI, ma sens?

Zachwyciła mnie teza firmy prawniczej, z którą współpracujemy – jej przedstawiciele powiedzieli nam, że dzięki ChatGPT-4 w kilka miesięcy zrobili więcej postępów niż w ciągu poprzednich 10 lat działania. Nasz model jest w stanie wygenerować odwołania od podstawowych decyzji prawniczych – np. związanych z utratą prawa jazdy – co najbiedniejszym ludziom daje nowe szanse.

A co mnie zabolało? Trzy lata temu, kiedy zaczynała się pandemia, wydawało mi się, że jako laboratorium przodujące w rozwoju sztucznej inteligencji będziemy w stanie jakoś pomóc w jej zatrzymaniu. Nawet podjęliśmy rozmowy ze szpitalem w San Francisco, ale ostatecznie niewiele udało się wspólnie zrobić. To było bardzo bolesne zderzenie z rzeczywistością.

Czego potrzebujecie teraz, by jeszcze szybciej się rozwijać?

Próba przewidzenia przyszłości ma krytyczne znaczenie w dalszych pracach nad sztuczną inteligencją. Zapraszamy polskich przedsiębiorców do wspólnej pracy nad tą przyszłością – każda sugestia związana z wpływem AI na ich biznesy będzie dla nas niezwykle przydatna. Chętnie poznamy każdy trend, o którym być może jeszcze nie słyszeliśmy.

My Company Polska wydanie 4/2023 (91)

Więcej możesz przeczytać w 4/2023 (91) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ