Badaczka: pokolenie Alfa postrzega generatywną AI jak autorytet i wyrocznię

Adobe Stock
Adobe Stock

Dzieci i młodzież najczęściej zadają AI pytania dotyczące teraźniejszości i przyszłości, uznając odpowiedzi za wyrocznię. Prowadzi to do postrzegania jej jak autorytetu i nadania AI podmiotowości – wskazuje dr Ada Florentyna Pawlak z Uniwersytetu SWPS.

Ekspertka w obszarze antropologii technologii jest członkinią zespołu w Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego i współautorką (wraz kierownikiem Centrum dr. hab. Arturem Modlińskim) badań nad zachowaniami internetowymi dzieci i młodzieży. Chcieli oni sprawdzić, jak to, o co dzieci pytają generatywną AI, wiąże się z ich dobrostanem.

Wyniki badań – przeprowadzonych na grupie ponad 400 młodych ludzi w wieku od 9 do 14 lat – wykazały, że młodzi ludzie cierpiący na zaburzenia lękowe lub ogólnie niskie samopoczucie psychiczne często szukają rozwiązań swoich problemów w internecie, wykorzystując do tego również narzędzia generatywnej sztucznej inteligencji.

"Badania wykazały, że dzieci wybierające pytania związane z potrzebami psychicznymi i bezpieczeństwem cechowały się zdecydowanie wyższym poziomem lęku i depresji niż te, które pytały o codzienne czynności i pasje. Z kolei osoby, które wybierały pytania dotyczące miłości i przynależności, miały z reguły większe problemy psychiczne niż grupa w większym stopniu zainteresowana potrzebami fizjologicznymi. Zaobserwowano również, że dzieci próbujące znaleźć u generatywnej sztucznej inteligencji odpowiedzi na pytania związane z miłością i przynależnością oraz te odnoszące się do szacunku i uznania, miały wyraźnie niższy poziom dobrostanu psychicznego niż dzieci chcące spytać o samorealizację i osobiste zainteresowania" – podali naukowcy.

Dodali, że wyniki zostaną wykorzystane do projektowania i testowania systemów konwersacyjnych dla młodych osób, które sygnalizowałyby potencjalne obniżenie ich dobrostanu.

Ponadto – jak powiedziała w rozmowie z serwisem Nauka w Polsce dr Ada Florentyna Pawlak – badanie pokazało, jak przedstawiciele pokolenia Alfa (urodzeni w latach 2010-2024) postrzegają samą sztuczną inteligencję.

"Generacja Alfa rozpoczyna edukację w dynamicznie zmieniającym się krajobrazie technokulturowym. To pokolenie dorasta w takim transhumanistycznym świecie, często wśród syntetycznych towarzyszy. Coraz częściej wchodzimy bowiem w interakcję z jakimiś agentami o nieokreślonym statusie ontologicznym. Czasem zatraca nam się granica, czy to jest prawdziwy człowiek, czy coś wygenerowanego na wzór człowieka, co zostało wytworzone, aby nas, ludzi, łudzić" – powiedziała ekspertka.

A przez to – dodała – zmienia się postrzeganie takich pojęć jak autentyczność i wiarygodność.

Dlatego też w opisywanym wcześniej badaniu naukowcy sprawdzili również inne kwestie.

"Nasze badanie pokazało też, że dzieci i młodzież z pokolenia Alfa najczęściej zadawali chatbotom pytania dotyczące teraźniejszości albo przyszłości. Pytali też generatywną sztuczną inteligencję nie tylko o fakty, lecz również o opinie dotyczące np. odżywiania, sportu, mody. Zadawali również pytania o przyszłość 'dalekiego zasięgu', np. kto zostanie mistrzem świata w piłce nożnej w kolejnych mistrzostwach albo kto wystąpi na Eurowizji w następnej edycji konkursu. A przecież są to rzeczy, który nie można jeszcze dzisiaj wiedzieć" – podsumowała badaczka.

Jej zdaniem to pokazuje, że młodzi traktują AI jako pewnego rodzaju wyrocznię, obdarzając ją autorytetem. "Pokolenia Milenialsów i starsze po pierwsze traktują sztuczną inteligencję z większą ostrożnością, zazwyczaj wiedząc, że nie jest to wiarygodne źródło informacji. Z drugiej strony, w większości pytamy o coś, co już się wydarzyło, o przeszłość, czyli traktujemy AI trochę jak taką 'Wikipedię 2.0'" – wskazała dr Ada Florentyna Pawlak.

Dodała, że poprzez postrzeganie AI jak autorytetu czy wyroczni nadaje się jej podmiotowość, a to prowadzi do następnych wyzwań. "W naszym badaniu wśród młodych ludzi nie było różnicy między zaufaniem zbudowanym do człowieka a obdarzeniem zaufania sztucznych systemów. Musimy mieć świadomość możliwych skutków tego zjawiska, ponieważ za jakiś czas obdarzenie autorytetem przedstawicieli takich zawodów jak profesor, lekarz czy nauczyciel nie będzie większe niż zaufanie do sztucznej inteligencji" – wskazała.

Wpisują się w to również wyniki z ponownie przeprowadzonego słynnego eksperymentu Milgrama. Tym razem naukowcy z Uniwersytetu SWPS w roli autorytetu wydającego polecenia, zamiast człowieka, obsadzili robota i uzyskali bardzo wysokie poziomy posłuszeństwa – 90 proc. uczestników postępowało zgodnie z wszystkimi wydanymi im instrukcjami. (PAP)

Nauka w Polsce, Agnieszka Kliks-Pudlik

akp/ zan/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Ekspert: nie potrafimy towarzyszyć umierającym bliskim, nie oswajamy śmierci

  • Adobe Stock

    Prof. Przegalińska: pośmiertna komunikacja za pomocą AI ze zmarłymi może pomóc w żałobie

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera