ChatGPT stał się leniwy i OpenAI zdaje sobie z tego sprawę. "Próbujemy to naprawić"

ChatGPT stał się leniwy i OpenAI zdaje sobie z tego sprawę. "Próbujemy to naprawić"
Od pewnego czasu użytkownicy skarżą się, że ChatGPT stał się jakby leniwy. Co ciekawe, OpenAI potwierdza, że faktycznie tak się stało.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Chociaż obecne modele LLM i generatywne AI ciągle mają jeszcze daleko do uzyskania "ludzkiej inteligencji", w ostatnim czasie, zdaje się, zaczęły nieco przypominać człowieka. Stały się leniwe. ChatGPT zaczyna okazywać oznaki lenistwa, a trend zaczął być zauważany pod koniec listopada.

Użytkownik serwisu Reddit napisał, że poprosił ChatGPT o wypełnienie pliku CSV wieloma wpisami. Zadanie to jest czymś, co komputer może łatwo wykonać i nawet początkujący programista może stworzyć prosty skrypt, który to robi. Jednak ChatGPT odmówił realizacji prośby, twierdząc, że jest to zbyt trudne, i polecił użytkownikowi zrobić to samemu. Zasugerował, że może mu przygotować prosty szablon.

Podobnych przykładów nie brakuje. ChatGPT albo nie chce czegoś wykonać, sugerując, że możemy zrobić to sami, albo po prostu się zacina i przestaje działać (wtedy trzeba odświeżać okno przeglądarki).

Developerzy OpenAI publicznie przyznali, że zauważyli dziwne zachowanie, jednocześnie są zaskoczeni, dlaczego się to dzieje. Firma zapewniła użytkowników, że bada sprawę i będzie pracować nad rozwiązaniem.

ChatGPT zaczął po prostu naśladować ludzi

Niektórzy użytkownicy spekulowali, że może to być naśladowanie ludzi, którzy mają tendencję do zwalniania tempa w okresie świątecznym. Teoria ta została nazwana "hipotezą przerwy zimowej". Pomysł polega na tym, że ChatGPT nauczył się od interakcji z ludźmi, że późny listopad i grudzień to czas na relaks. W końcu wielu ludzi wykorzystuje święta jako powód, by spędzić więcej czasu z rodziną. W związku z tym ChatGPT widzi mniej aktywności. Jednak jedno to być mniej aktywnym, a drugie to odmawiać pracy i wykonywania zadań.

Badacz AI Rob Lynch przetestował hipotezę przerwy zimowej, zlecając narzędziu ChatGPT zadania ze sfałszowanymi datami systemowymi maja i grudnia, a następnie licząc znaki w odpowiedziach bota. Bot faktycznie wydawał się udzielać "statystycznie istotnie" krótszych odpowiedzi w grudniu niż w maju, ale to w żaden sposób nie jest rozstrzygające.

Lynch przeprowadził swój test po tym, jak Will Depue z OpenAI potwierdził, że model AI wykazywał oznaki "lenistwa" lub odmowy pracy w laboratorium. Depue zasugerował, że jest to "dziwne" zjawisko, którego developerzy doświadczyli już wcześniej.

"Nie twierdzę, że nie mamy problemów z nadmierną odmową (na pewno tak jest) lub innych dziwnych rzeczy (pracujemy nad naprawieniem ostatniego problemu z lenistwem), ale to też próby wspierania tylu przypadków użycia naraz" - napisał na Twitterze.

Problem może wydawać się nieistotny dla niektórych, ale maszyna odmawiająca pracy to nie jest kierunek, w którym powinna rozwijać się AI. LLM jest narzędziem, które powinno robić to, o co użytkownik prosi, o ile zadanie mieści się w jego parametrach. OpenAI pracuje nad rozwiązaniem problemu.

ZOBACZ RÓWNIEŻ