Liderzy firm nerwowi w związku AI. Chcą wdrażać, ale mają obawy
AI zapewnia korzyści, ale są też obawy / Fot. Markus Spiske, Unsplash.com— Jedną z obaw jest strach przed zostaniem w tyle — mówi Reid Blackman, autor książki Ethical Machines. — Wielu liderów czuje presję, by zastanowić się, jak możemy wykorzystać tę nową technologię, aby zachować innowacyjność, zwiększać efektywność, w tym zarabiać lub oszczędzać pieniądze. A drugie pytanie dotyczy tego, jak robić to bezpiecznie — dodaje.
Blackman jest także założycielem i dyrektorem generalnym Virtue, firmy doradczej. Doradza rządowi Kanady w sprawie federalnych przepisów dotyczących AI oraz korporacjom w zakresie wdrażania programów dotyczących ryzyka etyki cyfrowej. Serwis Fortune zapytał go o to, co słyszy od liderów korporacyjnych oraz dlaczego napisał dla Harvard Business Review artykuł o tytule "Generative AI-nxiety" (w wolnym tłumaczeniu: Niepokój wobec generatywnej AI).
— Nerwowość jest uzasadniona, gdy nie masz faktycznie systemów i struktury, które w odpowiedni sposób uwzględniają te ryzyka — mówi Blackman. — To nie tak, że zarządzanie ryzykiem to coś nowego dla przedsiębiorstw. AI to po prostu kolejny obszar zarządzania ryzykiem, którego wcześniej nie realizowali.
Sprawdź: IBAN
Gdy ChatGPT został uruchomiony przez OpenAI 30 listopada 2022 r., generatywna AI szybko zyskała popularność. Niektóre firmy już wcześniej pracowały z dużymi modelami językowymi (LLM), które specjalizują się w przetwarzaniu i generowaniu tekstu, ale to ChatGPT, a później Bing Microsoftu oraz Bard Google'a, udostępniły generatywną AI każdej zainteresowanej osobie, a nie tylko naukowcom zajmującym się danymi.
AI to miecz obosieczny
Poszczególne osoby mogą widzieć różne sposoby wykorzystania technologii AI do zwiększenia dochodów. Ale używając jej bez odpowiednich parametrów, możemy potencjalnie zaszkodzić swojej marce. — To czyni liderów nerwowymi — mówi autor książki.
Wiele firm mimo wszystko kieruje się w stronę generatywnej AI. Ostatnie badanie firmy PwC przeprowadzone wśród ponad 600 dyrektorów wykazało, że 59% zamierza inwestować w nowe technologie AI w ciągu najbliższych 12-18 miesięcy. Ale firmy mierzą się z licznymi wyzwaniami. Obejmują one osiągnięcie mierzalnej wartości z nowej technologii AI (88% ankietowanych), wysokie koszty adopcji (85%) oraz szkolenia dla pracowników, którzy nie potrafią korzystać z AI (84%).
Standardy etyki w AI koncentrują się na uprzedzeniach, naruszeniach prywatności i problemach czarnej skrzynki. W swoim artykule Blackman wskazuje na co najmniej cztery ryzyka dotyczące wielu branż, które jego zdaniem są charakterystyczne dla generatywnej AI:
Problem halucynacji. Na przykład, gdy chatbot tworzy odpowiedź, która może brzmieć prawdziwie, ale jest nieprawdziwa lub niezwiązana z kontekstem.
Problem deliberacji. Generatywna AI nie dokonuje przemyśleń ani decyzji. Po prostu przewiduje kolejne słowo. Może wymyślać powody za podawanymi wynikami, co dla nieświadomego użytkownika wygląda autentycznie.
Problem nachalnego sprzedawcy. Potencjalnie można podważyć wiarygodność swojej firmy, jeśli stworzy ona chatbota sprzedażowego LLM, który jest np. bardzo dobry w manipulowaniu ludźmi.
Zobacz: Waran z Komodo
Problem wspólnej odpowiedzialności. Modele generatywnej AI są tworzone przez niewielką liczbę firm. Dlatego gdy twoja firma pozyskuje, a następnie dostosowuje model generatywnej AI, trzeba przeprowadzić odpowiednie analizy. Część tej analizy powinna obejmować, jakie są kryteria dla "odpowiednio bezpiecznego wdrożenia".
— Gdy tworzymy programy ryzyka etyki AI, obejmuje to wszystko, od ogólnych stwierdzeń do uzupełnienia struktur zarządzania, nowych polityk, procedur, przepływów pracy, a co kluczowe, mamy też wskaźniki i KPI, aby śledzić zgodność z wdrożeniem oraz wpływ całego przedsięwzięcia — tłumaczy ekspert.
Jednocześnie tym, czego firmy nie powinny robić, jest wprowadzanie zakazu używania generatywnej AI. Blackman przekonuje, że całkowity zakaz zakłada, że ludzie naprawdę nie skorzystają z AI. — W praktyce skorzystają, ale bez wiedzy pracodawcy — mówi. — Dlatego najlepiej szkolić ludzi, jak bezpiecznie korzystać ze sztucznej inteligencji. I potencjalnie złagodzić niektóre obawy.