Eksperci: AI może wspomagać w psychoterapię, ale chatboty mają mnóstwo ograniczeń

Fot. Adobe Stock
Fot. Adobe Stock

Są już chatboty, które oferują pomoc dla osób borykających się z lękiem, depresją czy stresem. Choć są sytuacje, kiedy narzędzia AI mogą być pomocne, to trzeba wiedzieć, że mają liczne ograniczenia - komentują eksperci z NASK i IDEAS NCBR.

10 października obchodzony jest Światowy Dzień Zdrowia Psychicznego. Ustanowiono go z inicjatywy Światowej Federacji Zdrowia Psychicznego, a ma na celu podniesienie świadomości społeczności globalnej na temat kluczowych kwestii zdrowia psychicznego.

Dr Marcin Rządeczka, członek zespołu badawczego „Psychiatria i fenomenologia obliczeniowa” w IDEAS NCBR oraz dr Agnieszka Karlińska, badaczka z NASK ostrzegają jednak w przesłanym komunikacie, że - jeśli chodzi o wsparcie psychoteapeutyczne - narzędzia AI mają wciąż liczne ograniczenia i w wielu sytuacjach mogą zaszkodzić.

Sztuczna inteligencja coraz śmielej wkracza na pole zdrowia psychicznego. Chatboty terapeutyczne mogą pomóc w terapii poznawczo-behawioralnej czy nauce medytacji. Niektórzy użytkownicy traktują je już niemal jak ludzkich terapeutów.

W erze cyfrowej narzędzia wspomagane przez sztuczną inteligencję zyskują na popularności – także wtedy, gdy chcemy zadbać o swoje zdrowie psychiczne. Wyspecjalizowane chatboty takie jak Wysa, Youper, Woebot Health, Replika (wywołała wiele kontrowersji, m.in. jeśli chodzi o bezpieczeństwo), a nawet ChatGPT obiecują szybką pomoc dla osób borykających się z lękiem, depresją czy stresem, szczególnie wtedy, gdy dostęp do psychoterapeutów jest utrudniony. Choć z pozoru rozwiązania te wydają się atrakcyjne, specjaliści podkreślają, że AI nie jest w stanie zastąpić pełnowartościowej terapii prowadzonej przez człowieka.

Dr Marcin Rządeczka, członek zespołu badawczego „Psychiatria i fenomenologia obliczeniowa” w IDEAS NCBR, ostrzega przed zbytnim zaufaniem do chatbotów.

“Dobry terapeuta wyczuje, kiedy pacjent kłamie, a kłamstwo, czy nawet niemówienie całej prawdy albo samooszukiwanie się jest często strategią, którą przejawiają osoby w kryzysie psychicznym. Dobry terapeuta powinien to wyłapać. Chatbot tego nie wyłapie” – mówi cytowany w komunikacie ekspert. Zwraca także uwagę na to, że AI wymaga wytrenowania na odpowiednio przygotowanych treściach, by mogła być skuteczna we wsparciu osób w spektrum autyzmu lub schizofrenii.

Dr Agnieszka Karlińska, badaczka z NASK, dodaje, że chatboty mogą mieć różne "osobowości", co z jednej strony zachęca do ich używania, ale z drugiej strony niesie ryzyko, że osoby z poważniejszymi problemami psychicznymi zrezygnują z kontaktu z profesjonalistami. “Często możemy wybrać typ terapeuty czy rozmówcy: czy ma to być bardziej coach, czy może kumpel. Istnieje ryzyko, że poprzestaniemy na interakcjach z tak spersonalizowanym chatbotem i nie pójdziemy już do terapeuty” – podkreśla.

Choć niektóre aplikacje terapeutyczne mogą wydawać się skuteczne, badania potwierdzające ich długotrwałą efektywność są rzadkie. “Nie ma długoterminowych, rzetelnych badań potwierdzających, że aplikacje rzeczywiście skutecznie leczą zaburzenia depresyjne” – zaznacza dr Karlińska. Wspomina, że choć firmy oferujące takie rozwiązania chwalą się redukcją objawów depresji, to dane te najczęściej opierają się na krótkich okresach ewaluacji.

Dr Marcin Rządeczka zwraca uwagę, że choć chatboty terapeutyczne mogą okazać się pomocne w monitorowaniu stanu psychicznego pacjentów, ich rola powinna być ściśle określona.

W przypadku poważnych zaburzeń, jak schizofrenia czy mania prześladowcza, chatboty mogą wręcz pogarszać stan pacjenta.

Mimo słabości, chatboty terapeutyczne mają też swoje zalety. Przede wszystkim mogą ułatwić dostęp do pomocy psychologicznej w sytuacjach, gdy pacjent musiałby długo czekać na wizytę u psychoterapeuty. “Chatboty mogą wspierać sesje terapeutyczne, pomagając pacjentom w monitorowaniu postępów, zwłaszcza w ramach terapii poznawczo-behawioralnej” – mówi dr Karlińska. Narzędzia te mogą również pomóc w śledzeniu na bieżąco postępów w terapii, co pozwoli pacjentom lepiej dbać o swój dobrostan psychiczny.

Eksperci zgodnie twierdzą, że sztuczna inteligencja może być wykorzystywana w terapii, ale nigdy nie zastąpi kontaktu z drugim człowiekiem.

Z perspektywy relacji terapeutycznej kluczowe jest zaufanie i głęboka empatia, której AI nie jest w stanie zapewnić. “Sztuczna inteligencja może być narzędziem, ale terapeuta, który ją stosuje, musi zrozumieć jej ograniczenia. (...) Terapeuta ze sztuczną inteligencją może być lepszym terapeutą niż terapeuta bez sztucznej inteligencji, ale na pewno nie chodzi o to, żeby AI ich zastąpiła” – podsumowuje dr Rządeczka.

Cała rozmowa ekspertow dostępna jest w podkaście IDEAS NCBR.

Nauka w Polsce

lt/ agt/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Badaczka: Polacy są umiarkowanie prospołeczni

  • Fot. Adobe Stock

    Ekspertka: mentoring filozoficzny pozwala tancerzom odkryć w sobie artystów

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera