Idą wybory. Uwaga na dezinformację opartą na AI
Fałszywy Bruce Willis pojawił się w rosyjskiej reklamie / Fot. ReutersW maju fałszywy obraz eksplozji w pobliżu Pentagonu zyskał na Twitterze wiralowy rozgłos. Niedługo później pojawiły się obrazy, które wydawały się pokazywać eksplozje w pobliżu Białego Domu. Eksperci od dezinformacji szybko zasygnalizowali, że obrazy wydają się być generowane przez sztuczną inteligencję, ale nie zdążyli w porę - rynek giełdowy zaczął odnotowywać spadki.
Był to tylko najnowszy przykład na to, jak fałszywe treści mogą mieć niepokojące skutki w rzeczywistym świecie.
Boom na generatywną sztuczną inteligencję oznacza, że narzędzia do tworzenia fałszywych obrazów i filmów, oraz do wytwarzania ogromnych ilości przekonującego tekstu, są teraz dostępne praktycznie dla każdego.
Eksperci od dezinformacji mówią, że wchodzimy w nową erę, w której coraz trudniej będzie odróżnić, co jest prawdziwe od tego, co nim nie jest. A to z pewnością mają wykorzystać politycy i odpowiednie agencje komunikacyjne.
W ubiegłym tygodniu firmy AI, w tym OpenAI, Google, Microsoft i Amazon, obiecały rządowi USA, że będą próbować złagodzić szkody, które mogą spowodować ich technologie. Ale jest mało prawdopodobne, aby to zatrzymało nadchodzący przypływ treści generowanych przez AI i zamieszanie, które może przynieść.
USA ostrzegają przed fałszywymi informacjami
Biały Dom mówi, że "dobrowolne zobowiązanie" firm obejmuje "rozwijanie solidnych mechanizmów technicznych, aby użytkownicy wiedzieli, kiedy treść jest generowana przez AI, takich jak system znaków wodnych", jako część wysiłków na rzecz zapobiegania wykorzystywaniu AI do "oszustwa" i "oszukiwania".
Ale eksperci, z którymi rozmawiał serwis WIRED, twierdzą, że te zobowiązania to połowiczne środki. - Nie będzie prostej odpowiedzi tak czy nie na pytanie, czy coś jest generowane przez AI, nawet przy użyciu znaków wodnych - mówi serwisowi Sam Gregory, dyrektor programu w organizacji non-profit Witness, która pomaga ludziom korzystać z technologii na rzecz promowania praw człowieka.
Znaki wodne są powszechnie stosowane przez agencje fotograficzne i agencje prasowe, aby zapobiec używaniu obrazów bez pozwolenia - i zapłaty.
Ale jeśli chodzi o różnorodność treści, które AI może generować, i wiele modeli, które już istnieją, rzeczy stają się bardziej skomplikowane. Na razie nie ma standardu dla znaków wodnych, co oznacza, że każda firma korzysta z innej metody. Dall-E, na przykład, używa widocznego znaku wodnego, podczas gdy inne usługi mogą domyślnie korzystać z metadanych lub znaków wodnych na poziomie pikseli, które nie są widoczne dla człowieka i wykrywają je algorytmy.
Chociaż niektóre z tych metod mogą być trudne do cofnięcia, inne, takie jak wizualne znaki wodne, czasami stają się nieskuteczne, gdy obraz ma zmieniane rozmiary. Wystarczy np. zmniejszyć rozdzielczość i dany znak przestanie być rozpoznawany.
- Będą sposoby, w jakie można uszkodzić znaki wodne - mówi Gregory.
AI ma stosować znaki wodne
Oświadczenie Białego Domu konkretnie wspomina o użyciu znaków wodnych dla treści audio i wizualnej generowanej przez AI, ale nie dla tekstu.
Istnieją natomiast sposoby na oznaczanie znakami wodnymi tekstu generowanego przez narzędzia takie jak ChatGPT od OpenAI, przez odpowiednie manipulacje słowami w taki sposób, aby pewne wyrazy lub zestawy wyrazów pojawiały się częściej. Te "znaki wodne" mogłyby być wykrywane przez maszynę, ale niekoniecznie przez człowieka.
Szybko wchodzimy w ten czas, kiedy coraz trudniej uwierzyć w cokolwiek, co czytamy, widzimy lub słyszymy online. Oznacza to, że nie tylko będziemy nabierani przez fałszywe rzeczy, ale też nie będziemy wierzyć w rzeczy prawdziwe.
Trzeba będzie niejako wrócić do korzeni i ufać tym mediom, które po prostu cenimy i korzystamy z nich od lat. Na znaczeniu zyskają popularne, rozwijane od lat marki. Pozostałe treści powinniśmy zaś traktować, dla własnego bezpieczeństwa, jako ciekawostki, a niekoniecznie fakty.
Coraz ważniejsze będą też rozwiązania z cyberbezpieczeństwa do ochrony tożsamości online.
Czytaj też: