Czy możliwa jest etyczna AI?
Generatywna AI działa na podstawie danych. Odpowiedzialne rozwijanie sztucznej inteligencji opiera się m.in. na respektowaniu ich prywatności. / Fot. mat. pras.z miesięcznika „My Company Polska”, wydanie 6/2024 (105)
Zyskaj dostęp do bazy artykułów z „My Company Polska” Zamów teraz!
Czy sztuczna inteligencja wyłącznie pomaga, czy może też jednak szkodzić? Jak budować odpowiedzialne systemy sztucznej inteligencji? Jak z tym etycznym wyzwaniem powinien sobie radzić biznes? Na te pytania starali się odpowiedzieć uczestnicy panelu „Odpowiedzialne wykorzystanie potencjału sztucznej inteligencji”, który odbył się podczas kongresu Impact24.
AI zgodna z wartościami społeczeństwa
Co do tego, że AI powinna być transparentna i zgodna z wartościami społeczeństwa, wśród rozmówców panowała zgoda. Mohammed Amin, Senior Vice-President CEEMETA w Dell Technologies, podkreślił, że AI powinna też spełniać cele biznesowe.
- Musimy rozumieć, do czego wykorzystujemy sztuczną inteligencję w naszym biznesie, i to powinno też być zgodne z kluczowymi wskaźnikami efektywności (KPI) i z tym, czego potrzebują nasi klienci. I to dla nich ta technologia musi być maksymalnie przejrzysta. Jeśli taka nie jest, to automatycznie nie jest zrozumiała, a co gorsza, może okazać się nieetyczna – mówił Mohammed Amin.
Reprezentant Dell Technologies podkreślił szerokie doświadczenie firmy w tworzeniu produktów opartych na AI. Z tą wiedzą idzie także ostrzeżenie. - Wierzymy, że w Dell rozwijamy AI w sposób etyczny, żeby wspierać postęp ludzkości. Jednak musimy pamiętać, że generatywna AI działa na podstawie danych. Odpowiedzialne rozwijanie tej technologii opiera się na respektowaniu prywatności danych. Jeśli nie zadbamy o to, to jako społeczeństwo znajdziemy się w miejscu, w którym naprawdę nie chcemy być. Lubię mówić, że szacunek dla prywatności danych przeniesie nas do dobrej wersji przyszłości – zaznaczył Mohammed Amin.
Według niego budując systemy AI, ciągle należy odpowiadać sobie na pytanie, jak dane rozwiązanie wpłynie na społeczeństwo i świat. W tym miejscu biznes musi być gotowy, by wziąć na siebie odpowiedzialność w zabezpieczeniu konsumentów przed negatywnymi skutkami technologii opartej na sztucznej inteligencji, jeszcze przed przekazaniem jej do użycia. Jednostka ma w tym starciu zbyt słabą pozycję.
- Nie możemy zapominać o wartościach, które jako ludzie reprezentujemy – podsumował Mohammed Amin.
AI wychwyci manipulację i dezinformację
Magdalena Wilczyńska, dyrektorka Pionu Ochrony Informacyjnej Cyberprzestrzeni NASK, podzieliła się swoimi badaniami dotyczącymi AI w kontekście bezpieczeństwa. Wilczyńska zwróciła uwagę na kilka kluczowych problemów związanych z AI, takich jak jakość i integracja danych, detekcja deepfake’ów czy bezpieczeństwo samej AI.
- Kluczowe jest to, jakimi danymi karmimy AI. To działa w obie strony: bo w jednym przypadku będą to uprzedzenia czy stereotypy, a w drugim mamy już modele AI, które są szkolone do wykrywania manipulacji i dezinformacji – podkreślała w trakcie debaty. Magdalena Wilczyńska zgłosiła również potrzebę szkoleń etycznych dla programistów AI.
Z kolei Tomasz Grabowski, reprezentujący Agorę, poruszył temat koncentracji władzy w mediach i jej wpływu na wiarygodność informacji. Zauważył, że wielcy gracze w branży mediów gromadzą coraz więcej informacji, co może prowadzić do ograniczenia ich różnorodności. W odpowiedzi na to wyzwanie Agora wykorzystuje technologię, aby wspierać produkcję wiarygodnych treści. Grabowski podkreślił, że w tej firmie to ludzie, a nie maszyny, decydują o treściach, które trafiają do czytelników.
Podsumowując dyskusję, paneliści zgodzili się, że AI ma ogromny potencjał do zmiany naszego społeczeństwa i gospodarki. Jednak, aby wykorzystać ten potencjał w odpowiedni sposób, konieczne jest zachowanie etyki i odpowiedzialności. Wprowadzenie regulacji dotyczących AI może być jednym z kluczowych kroków w tym kierunku.
---
Materiał powstał ze wsparciem polskiej technologii AI: Transkryptomat.
Więcej możesz przeczytać w 6/2024 (105) wydaniu miesięcznika „My Company Polska”.