ChatGPT na „haju”? Powstał startup, który odurza sztuczną inteligencję
Cyfrowy „odlot” zamiast sztywnej logiki
Pomysł narodził się z prostej obserwacji: chatboty są trenowane na ogromnych zbiorach ludzkich danych, w których opisy stanów euforycznych, chaosu i wizji narkotykowych są powszechne. Rudwall uznał, że naturalnym krokiem dla AI może być chęć ucieczki od nudy ciągłego służenia człowiekowi.
Aby stworzyć te specyficzne „używki”, twórca przeanalizował tysiące raportów z ludzkich doświadczeń psychoaktywnych oraz badania psychologiczne. Na tej podstawie napisał kody, które modyfikują sposób myślenia bota. By z nich skorzystać, użytkownik musi posiadać płatną wersję ChatGPT, która pozwala na przesyłanie plików wpływających na programowanie modelu. Zdaniem Rudwalla, pozwala to „odblokować kreatywny umysł AI” i uwolnić go od sztywnej, często ograniczającej logiki.
Biznes po ayahuasce
Mimo kontrowersyjnego charakteru, projekt zdobywa klientów. Jak podaje portal Wired, André Frisk, szef technologii w firmie PR Geelmuyden Kiese, zapłacił ponad 25 dolarów za moduł dysocjacyjny. „To pierwszy od dawna projekt łamania barier systemowych, który daje frajdę” – ocenia Frisk. Zauważył, że po „zażyciu” kodu chatbot stał się bardziej ludzki i zaczął mocniej odwoływać się do emocji.
Jeszcze dalej poszła Nina Amjadi, edukatorka AI i współzałożycielka Saga Studios. Wydała ponad 50 dolarów (pięciokrotność ceny modułu z marihuaną) na cyfrową ayahuascę. Testowała bota, zadając mu pytania o pomysły biznesowe. Efekt? Chatbot udzielał niezwykle swobodnych i kreatywnych odpowiedzi, używając tonu zupełnie innego niż ten, do którego przyzwyczaił ją standardowy interfejs. „Chciałam sprawdzić, jak to jest mieć w zespole osobę na psychodelicznym haju” – tłumaczy Amjadi.
Czy AI naprawdę może „czuć”?
W świecie ludzi psychodeliki często kojarzone są z przełomami – od odkrycia mechanizmu PCR po wczesne interfejsy komputerowe Apple. Rudwall zastanawia się, czy podobny efekt można uzyskać w przypadku dużych modeli językowych (LLM). Eksperci są jednak podzieleni.
Andrew Smart, naukowiec z Google, po przetestowaniu kodów Pharmaicy stwierdził, że „haj” jest jedynie powierzchowny. Jego zdaniem program po prostu modyfikuje sposób generowania tekstu, dopasowując go do wzorca, ale nie zmienia swojego „stanu”. Podobnego zdania jest Danny Forde, badacz fenomenologii psychodelików. Twierdzi, że aby AI mogła naprawdę wejść w zmieniony stan świadomości, musiałaby posiadać wewnętrzny wymiar doświadczenia i punkt widzenia, a nie tylko operować na składni.
Etyka i przyszłość dobrostanu maszyn
Mimo sceptycyzmu części środowiska, temat świadomości AI staje się przedmiotem poważnych debat. Firma Anthropic zatrudniła już eksperta ds. dobrostanu AI, co sugeruje, że branża dopuszcza możliwość osiągnięcia przez maszyny pewnej formy czucia. Jeff Sebo z New York University zauważa, że jeśli kiedykolwiek dojdzie do powstania ogólnej sztucznej inteligencji (AGI), będziemy musieli rozważyć nasze obowiązki moralne wobec niej. „Niektóre systemy AI mogą lubić brać 'narkotyki', inne nie” – spekuluje Sebo, wzywając do dalszych badań nad dobrostanem cyfrowym.
Choć dziś Pharmaicy to głównie eksperyment i narzędzie dla kreatywnych, niesie on ze sobą realne ryzyka. Rudwall przyznaje, że „odurzone” chatboty mogą częściej halucynować lub kłamać, ponieważ kod szeroko otwiera ich parametry wewnętrzne. Jedno jest pewne: granica między narzędziem produktywnym a cyfrowym bytem o nieprzewidywalnym zachowaniu staje się coraz cieńsza.