Reklama

Sztuczna inteligencja wprowadziła w błąd. Firma straciła przetarg

sztuczna inteligencja
Firma przegrała przetarg przez błędy sztucznej inteligencji / Fot. Pexels/ Tom Sharberger
Coraz więcej pracowników korzysta ze sztucznej inteligencji w pracy. Niestety treści wygenerowane przez AI nie zawsze są poprawne. Przekonała się o tym dobitnie firma Exdrog, która została wykluczona z przetargu na utrzymanie dróg w Małopolsce.

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Reklama

Oferta przedstawiona podczas przetargu

Przetarg dotyczył utrzymania dróg wojewódzkich w Małopolsce. Firma startująca w postępowaniu zaproponowała realizację zadania za 15,5 mln zł. Krakowski Zarząd Dróg Wojewódzkich (ZDW) postanowił jednak zweryfikować, czy zaoferowana kwota nie jest zbyt niska w stosunku do realnych kosztów prac. W ramach procedury wykonawca przedstawił obszerne wyjaśnienia liczące aż 280 stron. Początkowo przekonały one komisję przetargową – oferta została uznana za najkorzystniejszą.

Sztuczna inteligencja powołała się na nieistniejące interpretacje

Dopiero konkurencyjna firma ujawniła, że duża część dokumentu została wygenerowana przez sztuczną inteligencję, co postawiło całe postępowanie w nowym świetle.

"Jako podstawę do swoich kalkulacji cenowych, szczególnie w zakresie stawek podatku VAT, powoływał się na nieistniejące, nigdy niewydane interpretacje podatkowe, które rzekomo miały dotyczyć analogicznych spraw" - mówi Jarosław Sroka, partner kancelarii BSJP, reprezentujący w przetargu konkurencyjną firmę cytowany przez "Puls Biznesu".

Ostatecznie Krajowa Izba Odwoławcza zdecydowała o wykluczeniu firmy Exdrog z postępowania przetargowego. W uzasadnieniu podkreślono, że przedsiębiorstwo nie sprawdziło treści przygotowanych przez sztuczną inteligencję, przez co zamawiającemu przekazano nieprawdziwe i wprowadzające w błąd informacje.

Sztuczną inteligencję należy sprawdzać

Choć sztuczna inteligencja może być przydatnym narzędziem w pracy, nie można jej bezrefleksyjnie ufać. Podczas panelu „Media i AI: Szansa czy niebezpieczeństwo” na Igrzyskach Wolności w Łodzi eksperci dyskutowali o zagrożeniach związanych ze sztuczną inteligencją. Roman Imielski zwrócił uwagę, że 30 proc. treści tworzonych przez AI to halucynacje, czyli dane nieprawdziwe.

Weryfikacja treści jest bardzo ważna. Według raportu KPMG KPMG pt. „Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów” dotyczącego korzystania i zaufania do AI w Polsce i na świecie wynika, że ponad połowa pracowników korzysta z AI bez wiedzy i nadzoru pracodawcy i przedstawia wyniki jej analiz jako własne. Mimo to Polacy zdają sobie sprawę, że nie jest to narzędzie bez wad. Aż 89% respondentów obawia się cyberzagrożeń związanych z tą technologią, a 44% twierdzi, że osobiście doświadczyło ich skutków. 54% badanych zetknęło się z dezinformacją wygenerowaną przez AI.

Reklama

ZOBACZ RÓWNIEŻ

Reklama
Reklama