Czy możliwa jest etyczna AI?

Generatywna AI działa na podstawie danych. Odpowiedzialne rozwijanie sztucznej inteligencji opiera się m.in. na respektowaniu ich prywatności.
Generatywna AI działa na podstawie danych. Odpowiedzialne rozwijanie sztucznej inteligencji opiera się m.in. na respektowaniu ich prywatności. / Fot. mat. pras.
To nasze ludzkie wartości powinny decydować o tym, jakie systemy AI budujemy. I łatwo tu popełnić błąd.
ARTYKUŁ BEZPŁATNY

z miesięcznika „My Company Polska”, wydanie 6/2024 (105)

Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!

Czy sztuczna inteligencja wyłącznie pomaga, czy może też jednak szkodzić? Jak budować odpowiedzialne systemy sztucznej inteligencji? Jak z tym etycznym wyzwaniem powinien sobie radzić biznes? Na te pytania starali się odpowiedzieć uczestnicy panelu „Odpowiedzialne wykorzystanie potencjału sztucznej inteligencji”, który odbył się podczas kongresu Impact24.

AI zgodna z wartościami społeczeństwa

Co do tego, że AI powinna być transparentna i zgodna z wartościami społeczeństwa, wśród rozmówców panowała zgoda. Mohammed Amin, Senior Vice-President CEEMETA w Dell Technologies, podkreślił, że AI powinna też spełniać cele biznesowe.

- Musimy rozumieć, do czego wykorzystujemy sztuczną inteligencję w naszym biznesie, i to powinno też być zgodne z kluczowymi wskaźnikami efektywności (KPI) i z tym, czego potrzebują nasi klienci. I to dla nich ta technologia musi być maksymalnie przejrzysta. Jeśli taka nie jest, to automatycznie nie jest zrozumiała, a co gorsza, może okazać się nieetyczna – mówił Mohammed Amin.

Reprezentant Dell Technologies podkreślił szerokie doświadczenie firmy w tworzeniu produktów opartych na AI. Z tą wiedzą idzie także ostrzeżenie. - Wierzymy, że w Dell rozwijamy AI w sposób etyczny, żeby wspierać postęp ludzkości. Jednak musimy pamiętać, że generatywna AI działa na podstawie danych. Odpowiedzialne rozwijanie tej technologii opiera się na respektowaniu prywatności danych. Jeśli nie zadbamy o to, to jako społeczeństwo znajdziemy się w miejscu, w którym naprawdę nie chcemy być. Lubię mówić, że szacunek dla prywatności danych przeniesie nas do dobrej wersji przyszłości – zaznaczył Mohammed Amin.

Według niego budując systemy AI, ciągle należy odpowiadać sobie na pytanie, jak dane rozwiązanie wpłynie na społeczeństwo i świat. W tym miejscu biznes musi być gotowy, by wziąć na siebie odpowiedzialność w zabezpieczeniu konsumentów przed negatywnymi skutkami technologii opartej na sztucznej inteligencji, jeszcze przed przekazaniem jej do użycia. Jednostka ma w tym starciu zbyt słabą pozycję.

- Nie możemy zapominać o wartościach, które jako ludzie reprezentujemy – podsumował Mohammed Amin.

AI wychwyci manipulację i dezinformację

Magdalena Wilczyńska, dyrektorka Pionu Ochrony Informacyjnej Cyberprzestrzeni NASK, podzieliła się swoimi badaniami dotyczącymi AI w kontekście bezpieczeństwa. Wilczyńska zwróciła uwagę na kilka kluczowych problemów związanych z AI, takich jak jakość i integracja danych, detekcja deepfake’ów czy bezpieczeństwo samej AI.

- Kluczowe jest to, jakimi danymi karmimy AI. To działa w obie strony: bo w jednym przypadku będą to uprzedzenia czy stereotypy, a w drugim mamy już modele AI, które są szkolone do wykrywania manipulacji i dezinformacji – podkreślała w trakcie debaty. Magdalena Wilczyńska zgłosiła również potrzebę szkoleń etycznych dla programistów AI.

Z kolei Tomasz Grabowski, reprezentujący Agorę, poruszył temat koncentracji władzy w mediach i jej wpływu na wiarygodność informacji. Zauważył, że wielcy gracze w branży mediów gromadzą coraz więcej informacji, co może prowadzić do ograniczenia ich różnorodności. W odpowiedzi na to wyzwanie Agora wykorzystuje technologię, aby wspierać produkcję wiarygodnych treści. Grabowski podkreślił, że w tej firmie to ludzie, a nie maszyny, decydują o treściach, które trafiają do czytelników.

Podsumowując dyskusję, paneliści zgodzili się, że AI ma ogromny potencjał do zmiany naszego społeczeństwa i gospodarki. Jednak, aby wykorzystać ten potencjał w odpowiedni sposób, konieczne jest zachowanie etyki i odpowiedzialności. Wprowadzenie regulacji dotyczących AI może być jednym z kluczowych kroków w tym kierunku.

---

Materiał powstał ze wsparciem polskiej technologii AI: Transkryptomat.

My Company Polska wydanie 6/2024 (105)

Więcej możesz przeczytać w 6/2024 (105) wydaniu miesięcznika „My Company Polska”.


Zamów w prenumeracie

ZOBACZ RÓWNIEŻ