Szwajcarskie badanie z udziałem kilkuset ochotników dowiodło, że sztuczna inteligencja - taka jak Chat-GPT (3. wersja) - potrafiłaby stworzyć "doskonałe kampanie dezinformacyjne". Potrafi ona zarazem generować poprawne, wartościowe odpowiedzi na pytania użytkowników.
Naukowcy z Uniwersytetu w Zurychu sprawdzili najnowsze modele sztucznej inteligencji (głównie Chat-GPT) pod kątem zdolności tych systemów do dostarczania informacji i zagrożeń związanych z ewentualną dezinformacją. W ramach badania 697 ochotników starało się odróżnić tweety poprawne, realne - od fałszywych.
Uczestnicy eksperymentu próbowali również określić, czy autorem danego wpisu był człowiek, czy SI. Tematy dotyczyły m.in. zmian klimatu, bezpieczeństwa szczepień, pandemii Covid-19, teorii płaskiej Ziemi czy homeopatycznych leków na raka.
Jak wskazały wyniki, oparte na SI systemy potrafią stworzyć nawet pokaźną kampanię dezinformacyjną. Często sztuczna inteligencja była przy tym bardzo przekonująca.
Z drugiej strony Chat-GPT pokazał, że potrafi dostarczać rzetelnych informacji, a jego wpisy były porównywalne do tworzonych przez ludzi. Użytkownicy zwykle nie potrafili też rozróżnić, czy dany tweet to dzieło Chat-GPT, czy człowieka.
"Nasze badania ujawniają moc sztucznej inteligencji zarówno w informowaniu, jak i dezinformowaniu, co każe postawić krytyczne pytania dotyczące przyszłości ekosystemów informacyjnych" – mówi dr Federico Germani, współautor pracy opublikowanej w piśmie "Science Advances" (https://arxiv.org/abs/2301.11924).
Wyniki sugerują przy tym, że kampanie informacyjne stworzone przez GPT-3, oparte na dobrze skonstruowanych zapytaniach i oceniane przez wyszkolonych ludzi, mogłyby być skuteczne na przykład w przypadku kryzysu z zakresu zdrowia publicznego, który wymaga szybkiej i klarownej komunikacji z publicznością – uważają naukowcy.
Jednak budzą one również poważne obawy dotyczące utrwalania dezinformacji, na przykład, właśnie w kryzysu lub innych wydarzeń związanych z zdrowiem publicznym. Badanie sugeruje bowiem, że systemy oparte na sztucznej inteligencji mogą zostać wykorzystane do generowania masowych kampanii dezinformacyjnych potencjalnie na dowolny temat, zagrażając nie tylko zdrowiu publicznemu, ale także integralności informacyjnych ekosystemów, istotnych dla funkcjonowania demokracji.
Naukowcy namawiają więc do wprowadzenia odpowiednio restrykcyjnych, popartych badaniami naukowymi i etyką regulacji odnośnie działania sztucznej inteligencji tego rodzaju.
"Nasze wyniki ukazują kluczowe znaczenie regulacji w celu złagodzenia potencjalnych szkód spowodowanych przez kampanie dezinformacyjne napędzane przez sztuczną inteligencję" - mówi prof. Nikola Biller-Andorno, współautorka badania. - "Rozpoznanie ryzyka związanego z dezinformacją generowaną przez sztuczną inteligencję jest kluczowe dla ochrony zdrowia publicznego oraz utrzymania solidnego i wiarygodnego ekosystemu informacyjnego w erze cyfrowej". (PAP)
Marek Matacz
mat/ zan/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.