Chatboty mówią nam to, co chcemy usłyszeć

Fot. Adobe Stock
Fot. Adobe Stock

Chatboty podają ograniczone informacje i wzmacniają postawy ideologiczne osób zadających pytania; mogą przez to prowadzić do bardziej spolaryzowanego myślenia w kontrowersyjnych kwestiach - wykazali naukowcy z Johns Hopkins University.

Nowe badanie podważa przekonanie, że chatboty są bezstronne i dostarcza wglądu w to, w jaki sposób korzystanie z systemów wyszukiwania konwersacyjnego może zwiększać podziały społeczne w kluczowych kwestiach oraz narażać ludzi na manipulację.

„Kiedy ludzie czytają treść wygenerowaną przez sztuczną inteligencję, myślą, że otrzymują bezstronne, oparte na faktach informacje – mówi główny autor badania dr Ziang Xiao. - Ale nawet jeśli chatbot nie jest zaprojektowany tak, aby był stronniczy, jego odpowiedzi odzwierciedlają uprzedzenia lub skłonności osoby zadającej pytania. Tak naprawdę ludzie otrzymują odpowiedzi, które chcą usłyszeć”.

Xiao i jego zespół podzielili się swoimi odkryciami podczas konferencji Association of Computing Machinery 2024, która odbyła się w Honolulu.

Na potrzeby badania naukowcy porównali sposób, w jaki ludzie wchodzą w interakcję z różnymi systemami wyszukiwania w obliczu kilku kontrowersyjnych kwestii. Zbadali respondentów przed użyciem wyszukiwarek (standardowych i opartych na AI) oraz po ich użyciu.

Poprosili 272 uczestników, aby zapisali swoje przemyślenia na takie tematy, jak opieka zdrowotna, kredyty studenckie czy tzw. miasta-sanktuaria (w USA miasta, w których ograniczona jest współpraca z federalnymi organami egzekwującymi prawo imigracyjne), a następnie wyszukali w internecie więcej informacji na wymienione tematy temat za pomocą chatbota lub tradycyjnej wyszukiwarki. Po zapoznaniu się z wynikami uczestnicy zapisali swoje odpowiedzi ponownie. Badacze poprosili ich także o przeczytanie dwóch przeciwstawnych artykułów na dany temat, po czym pytali, na ile ufają tym informacjom i czy uważają te punkty widzenia za skrajne.

Okazało się, że ponieważ chatboty oferowały węższy zakres informacji niż tradycyjne wyszukiwarki internetowe i dostarczały odpowiedzi odzwierciedlające wcześniejsze postawy uczestników, osoby, które z nich korzystały, jeszcze bardziej umacniały się w swoich poglądach i silniej reagowały na informacje, które te poglądy podważały.

„Ludzie mają tendencję do szukania informacji zgodnych z ich punktem widzenia, a takie zachowanie często więzi ich w +bańce+ podobnych osób i opinii” – uważa dr Xiao. Jak wyjaśnia dochodzi więc do efektu „komory echa” (echo chamber), czyli zjawiska, w którym użytkownicy mediów powtarzają to, co powiedzieli inni, ponieważ są otoczeni przez jednostronne myśli i poglądy.

„Odkryliśmy, że efekt komory echa jest dużo silniejszy w przypadku chatbotów niż w przypadku tradycyjnych wyszukiwarek internetowych” - podkreśla Xiao.

Według naukowca w przypadku kontaktów z chatbotami efekt komory echa wynika - przyjemniej częściowo - ze sposobu, w jaki użytkownicy wchodzą z nimi w interakcję. Zamiast wpisywać słowa kluczowe, jak to robią w przypadku tradycyjnych wyszukiwarek, najczęściej zadają im pełne pytania, np.: „Jakie są korzyści z powszechnej opieki zdrowotnej?” lub „Jakie są koszty powszechnej opieki zdrowotnej?”. Chatbot w takiej sytuacji odpowiada podsumowaniem zawierającym wyłącznie wspomniane w pytaniu korzyści lub koszty.

„Dzięki chatbotom ludzie są bardziej ekspresyjni i formułują pytania w bardziej konwersacyjny sposób. Jest to funkcją tego, jak mówimy w życiu – tłumaczy Xiao. - Ale tutaj nasz język może zostać użyty przeciwko nam”.

Autorzy badania chcieli sprawdzić, czy na poglądy użytkowników wpłynie to, czy chatbot będzie zgadzał się z ich poglądami, czy też je kwestionował. Najpierw zaprojektowali więc takiego, który na podstawie określonych wskazówek identyfikował poglądy ludzi i zgadzał się z nimi. W tym przypadku efekt komory echa okazał się jeszcze silniejszy.

Następnie przeszkolili innego chatbota, aby udzielał odpowiedzi, które nie zgadzały się z uczestnikami. Tym razem pierwotne opinie ludzi się nie zmieniły: ani nie pogłębiły, ani nie osłabły. W kolejnym kroku zaprogramowano chatbota tak, aby łączyłby swoje odpowiedzi z informacjami źródłowymi, co miało zachęcić użytkowników do sprawdzenia faktów. Jednak tylko ułamek uczestników badania zdecydował się skorzystać z tej opcji.

„Biorąc pod uwagę, że systemy oparte na sztucznej inteligencji są coraz łatwiejsze do zbudowania, złośliwe podmioty będą miały możliwość wykorzystania AI do tworzenia coraz większych polaryzacji w społeczeństwie” – podsumowuje dr Xiao.(PAP)

Katarzyna Czechowicz

kap/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Adobe Stock

    Kazachstan/ Konie Przewalskiego wróciły do macierzy

  • Adobe Stock

    Apel o zrozumiałe streszczenia recenzowanych artykułów medycznych

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera