Bard póki co znienawidzony przez pracowników Google'a

Pod koniec marca Google udostępnił Barda publicznie (możesz wypróbować go samodzielnie).
Pierwsze wrażenia recenzentów na temat Barda są w dużej mierze pozytywne, choć wielu narzeka na - czasami - niewłaściwe odpowiedzi. Wewnątrz biur Google'a AI chatbot jest jednak wyjątkowo niepopularny.
Sprawdź: Szymon Sidor o ChatGPT-4
Według raportu Bloomberga, Google ignoruje swoje zobowiązania etyczne na rzecz wygrania wyścigu AI z OpenAI (twórcą ChatGPT).
Google Bard póki co nie ma dobrej opinii wśród pracowników
Bloomberg twierdzi, że uzyskał wewnętrzny dokument Google'a i skontaktował się z 18 obecnymi i byłymi pracownikami firmy, aby ustalić wspólny wątek w postrzeganiu Barda wewnątrz organizacji. Według tego, co odkrył Bloomberg, to nie jest ładny obraz.
Jeden z pracowników nazwał Barda "patologicznym kłamcą"; inny nazwał go "żenującym".
Oto trzy powody, dla których pracownicy Google nie akceptują Barda:
1. Google Bard jest rażąco błędny
Bloomberg podał, że jeden z pracowników narzekał na nieprawidłowe odpowiedzi Barda. Na przykład, w jednym przypadku zapytali Barda, jak wylądować samolotem, a w odpowiedzi otrzymali instrukcje prowadzące do śmiertelnego wypadku.
Inny pracownik zauważył, że poprosił Barda o poradę dotyczącą nurkowania, ale jego odpowiedź "prawdopodobnie doprowadziłaby do poważnych obrażeń lub śmierci". Pomimo zastrzeżeń, Google wprowadziło konkurenta ChatGPT na rynek.
2. Google rzekomo nie przejmuje się kwestiami etycznymi
Przed szaleństwem ChatGPT, Google było ostrożne w stosunku do AI, które stanowi podstawę Barda, i było bardziej otwarte na pomysł poświęcenia czasu na rozważenie etycznych przeszkód przed udostępnieniem go publicznie.
Jednak awersja Google do ryzyka zmalała, gdy ChatGPT zawitał na scenę. Warto zauważyć, że Timnit Gebru i Margaret Mitchell (dawne liderki zespołu ds. etycznych AI w Google) zostały usunięte po sporze dotyczącym uczciwości zasad AI firmy.
Zobacz: ChatGPT-4 w e-commerce
Pracownicy wciąż znajdujący w zespole twierdzą z kolei, że nie wiedzą, jak kontynuować swoją pracę jako orędownicy etyki, nie narażając swojej pozycji na ryzyko.
W marcu pracownicy poinformowali liderkę ds. zasad AI i zarządzania w Google, Jen Gennai, że Bard nie przeszedł oceny ryzyka, ponieważ może "powodować szkody". Gennai odrzuciła raport.
3. Wydanie Google Bard było zbyt pośpieszne
Google było zdeterminowane, aby wyprzedzić rywala - a przynajmniej nie dać mu zbudować zbyt silnej pozycji - więc umieściło na Bardzie etykietę "eksperyment". Gigant wyszukiwarkowy miał nadzieję, że to oznaczenie zyska mu wyrozumiałość ze strony publiczności w przypadku niedociągnięć.
Raport Bloomberga zarzucił Google'owi wprowadzenie na rynek usługi mającej "głęboki wpływ na społeczeństwo", która nie została wystarczająco dopracowana.
Warto przypomnieć, że sam Google miał zastrzeżenia co do swojego AI i nie chciał udostępniać żadnych przyjaznych dla użytkownika wersji swoich rozwojowych modeli LLM (ang. large learning model) - aż do momentu, gdy zauważył, że OpenAI staje mu na drodze.
Etyka staje na drodze
Pracownicy Google w dużym stopniu nie czują się zadowoleni z tego, co zrobiła firma w kontekście Barda. Usługa nie jest jeszcze gotowa, natomiast firma wprowadza ją na rynek tylko dlatego, bo zrobił to jeden z konkurentów.
Kto ma rację? Szefowie, którzy naciskali swoje zespoły, aby udostępniać niedopracowane produkty? Czy jednak pracownicy, którzy uważają, że jakość powinna być najważniejsza — a nie wyprzedzanie konkurencji.
Warto śledzić akcje Google'a (Alphabet Inc.), aby poznać ocenę inwestorów i ich zdanie na ten temat. Na razie wycena spółki stoi w miejscu (+1,97% w skali miesiąca) i rynek nie jest jeszcze zdecydował.