Celem sztucznej inteligencji jest uzupełnienie działań człowieka, a nie jego zastąpienie

Marcin Gajdziński – dyrektor generalny IBM na Polskę, Kraje Bałtyckie i Ukrainę oraz Artur Wroński – lider ds. promocji technologii AI w IBM Polska
Marcin Gajdziński – dyrektor generalny IBM na Polskę, Kraje Bałtyckie i Ukrainę oraz Artur Wroński – lider ds. promocji technologii AI w IBM Polska
O tym, czym jest generatywna sztuczna inteligencja, jak AI może zostać wykorzystana w sporcie oraz jakie zagrożenia niesie ze sobą rozwój tej technologii, tłumaczą Marcin Gajdziński – dyrektor generalny IBM na Polskę, Kraje Bałtyckie i Ukrainę oraz Artur Wroński – lider ds. promocji technologii AI w IBM Polska.
ARTYKUŁ BEZPŁATNY

z miesięcznika „My Company Polska”, wydanie 6/2024 (105)

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Do czego przedsiębiorcy najczęściej używają sztucznej inteligencji?

Artur Wroński: Współczesne przedsiębiorstwa powszechnie korzystają z tzw. tradycyjnej AI, czyli klasycznych modeli uczenia maszynowego, które usprawniają realizację dobrze zdefiniowanych zadań. Przykładowo algorytm AI umożliwia dynamiczne dostosowanie ceny pokoju hotelowego, aby zapewnić odpowiedni poziom obłożenia. Natomiast obecnie trend ten zmienił się w kierunku generatywnej AI, by rozwiązywać zadania, które do tej pory były zarezerwowane dla inteligencji człowieka. To są złożone zadania np. analizy obrazu, przetwarzanie bardzo dużej ilości tekstu czy inne, które powodują zwiększenie produktywności działania poprzez automatyzację procesów.

Ogólnie rzecz biorąc, generatywna AI pozwala osiągnąć coś nowego i osiągnąć to dużo szybciej. Dla przykładu w IBM przy współpracy z NASA stworzyliśmy duży model geoprzestrzenny, który pozwala analizować mapy pod kątem klęsk żywiołowych, by zautomatyzować ten proces i zobaczyć np., jak zmieniała się infrastruktura związana z tymi zjawiskami.

AI pozwala także realizować skomplikowane zadania, które wybiegają poza możliwości człowieka, czyli na przykład przetwarzanie bardzo dużej liczby dokumentów prawnych, np. patentów, analiza map czy analiza cząsteczek chemicznych.

Marcin Gajdziński: Dynamika pojawiania się nowych modeli językowych jest olbrzymia. Codziennie pojawiają się kolejne adaptacje dużych modeli w zastosowaniach publicznych i biznesowych. I to bardzo dobrze, ale rzeczą absolutnie fundamentalną dla biznesu jest to, aby w sposób umiejętny i stały zarządzać funkcjonowaniem tych modeli w swoim biznesie. Przedsiębiorcy powinni zwrócić uwagę nie tylko na zarządzanie danymi, ale również na wiarygodność modeli, aby móc korzystać z nich w bezpieczny sposób.

Narzędzi, które są napędzane AI, jest coraz więcej i nie ukrywajmy, to będzie coraz bardziej powszechne. Czy mamy już przygotowanych pracowników na tę rewolucję?

A.W.: Mogę powiedzieć na naszym przykładzie: AI jest filarem działalności IBM. Każdy z naszych pracowników musi rozumieć, w jaki sposób pracować ze sztuczną inteligencją. Opracowaliśmy kodeks AI, w którym mamy wyraźne dyrektywy. Inną naszą dyrektywą jest to, że wnioski płynące z danych należą do ich twórcy, a nie pośrednika, który operuje technologią.

M.G.: Rewolucja AI z pewnością będzie przekształcać rynek pracy. Co do tego nie ma żadnej wątpliwości, to jest kolejna zmiana cywilizacyjna. Oznacza to modyfikację profili zawodowych, ścieżek edukacyjnych, kompetencji, które oczywiście nie znikają, ale podlegają zmianom. Bardzo blisko współpracujemy z większością uniwersytetów, politechnik, aby narzędzia AI były elementem edukacji już na samym początku, niezależnie od kierunku studiów. Rozwiązania AI nie powinny być obce praktycznie nikomu. W każdym z obszarów trzeba będzie wiedzieć, jak z nich korzystać.

Czym generatywna AI różni się od „zwykłej” sztucznej inteligencji?

A.W.: Generatywna AI jest kontynuacją tradycyjnej inteligencji. W przypadku klasycznej AI albo klasycznego maszynowego uczenia się tworzyliśmy model AI, który był dostosowany i używany do konkretnego zadania. W przypadku generatywnej AI staramy się zbudować model bardziej uniwersalny, który tworzony jest na dużo większym zakresie danych, ale przez to, że jest uniwersalny, potem łatwo możemy go dostosować do konkretnego zadania.

Sam proces budowania większego modelu jest bardziej kosztowny i czasochłonny, ale potem dostosowanie go do konkretnego zadania jest dużo łatwiejsze, bo wystarczy podać kilka przykładów, jak należy odpowiadać w danym kontekście, i mamy gotowe rozwiązanie.

Mówimy, że ta inteligencja jest generatywna, ponieważ w przypadku języka czy obrazów jesteśmy w stanie generować nowe treści. Generatywna inteligencja wprowadza także pewne ryzyka, których nie było w przypadku klasycznego AI, np. wyniki mogą być trudne do przewidzenia. Klasyczna inteligencja działa celowo, tylko do jednego zadania, tam dane są bardzo precyzyjne i dokładnie wybrane. Tutaj mówimy o modelu, który był uczony na bardzo dużym zakresie danych, więc nie zawsze mamy nad tym kontrolę.

M.G.: Dlatego potrzebny jest jasno zdefiniowany model zarządzania danymi, aby eliminować wszelkiego rodzaju przekłamania. Tu odniosę się do przedsiębiorstw – na konfabulację w biznesie nie ma miejsca. Każda informacja zwrotna wygenerowana przez dowolny model musi opierać się na danych przedsiębiorstwa, które wprowadziliśmy i na bazie których szkolimy model. Jednocześnie wynik musi być całkowicie wyjaśniony i prawidłowy.

AI pojawia się także w sporcie. Jakie ma w nim zastosowanie?

M.G.: W sporcie AI głównie związane jest z wielowymiarową analizą zawodników, analizą szans w meczu, a także różnych zmiennych: od pogody, przez aktualny stan kortu albo boiska, po kondycję psychofizyczną zawodnika na podstawie dostępnych danych na jego temat. Dobrze ilustruje to wykorzystanie IBM watsonx na Wimbledonie czy przez klub piłkarski Sevilla FC. Wydajność rozwiązań AI pozwala na wnioskowanie na podstawie rosnącej, dużej ilości zmiennych, z którymi do tej pory mieliśmy do czynienia, ale byliśmy w ograniczony sposób przygotowani do wnioskowania.

Największym problemem związanym z rozwojem AI wydaje się być etyka. Jakie widzą panowie zagrożenia w tym temacie i jak możemy temu zaradzić?

A.W.: Ryzyka związane z używaniem szczególnie generatywnej AI mogą mieć znaczący wpływ nie tylko na jednostki, ale także na pewne transformacje społeczne. Do tego można zaliczyć choćby kwestie prywatności danych, tzn. np. przy pracy z modelami językowymi nie wolno udostępniać danych, które dają informację o danych osobowych bądź ewentualnie pozwalają w sposób pośredni taką informację przekazywać.

Poza tym ważna jest także kwestia naruszenia własności intelektualnych, które mogą pojawić się na każdym etapie tworzenia AI. Dla przykładu na etapie pozyskiwania danych mamy do nich uprawnienia, ale później możemy nie mieć prawa do prezentacji pewnych danych szerszemu gronu. Na to należy uważać.

Istotne jest także, jakie są konsekwencje błędnego działania AI. Model może dawać rekomendacje, które mają wpływ na ludzi i ich decyzje, np. czy wziąć kredyt, jaką podjąć decyzję medyczną – i takie podpowiedzi mogą być nietrafne.

M.G.: Ostatnio można zaobserwować globalną debatę na okoliczność tego, czy regulacje unijne nie przystopują tempa zmian i rozwoju AI w Europie, bo jak wiemy, te regulacje są stricte europejskie. Na innych kontynentach nie mamy tego rodzaju ograniczeń. Uważam, że to jest bardzo dobra praktyka ze względu na to, że już doświadczamy niekontrolowanego rozwoju AI, zwłaszcza jeśli chodzi o możliwość wykluczeń, naruszenia prywatności, poufności danych czy konfabulacji w opracowywaniu danych. To pułapka, która jest groźna dla administracji, biznesu i ludzi.

Odnosząc się do pani pytania – ważna jest sprawność w zarządzaniu modelami, bez względu na ich różnorodność czy wielość, i dopilnowanie, czy w odniesieniu w szczególności do systemów administracji publicznej we właściwy sposób opiekujemy się prywatnością.

My Company Polska wydanie 6/2024 (105)

Więcej możesz przeczytać w 6/2024 (105) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ