Sztuczna inteligencja pomoże wykrywać kłamców

Fot. Fotolia
Fot. Fotolia

Skuteczność ludzi w wykrywaniu, czy ktoś kłamie, czy mówi prawdę, jest niska (53-54 proc.). Psycholog z Warszawy pracuje nad darmowym programem, który - dzięki użyciu algorytmów sztucznej inteligencji - ma być w wykrywaniu kłamstw skuteczniejszy niż ludzie.

"Chcemy, by powstało narzędzie, które każdemu umożliwi analizę wypowiedzi pod kątem jej prawdziwości" - mówi w rozmowie z PAP psycholog dr Justyna Sarzyńska-Wawer z Instytutu Psychologii PAN w Warszawie. Dr Sarzyńska-Wawer chce, by program w ciągu roku udostępniony był za darmo w sieci. Każda osoba będzie mogła wrzucić tam tekst, który chce przetestować i dostać wskazówkę, czy autor wypowiedzi raczej mówi prawdę, czy raczej kłamie - wraz z analizą charakterystyk tej wypowiedzi.

Aby sztuczna sieć neuronowa mogła się nauczyć, czym różni się kłamstwo od fałszu, trzeba ją „nakarmić” danymi. Pytana, skąd bierze bazę kłamców, dr Sarzyńska-Wawer śmieje się: "Zmuszamy ludzi do kłamania". Wyjaśnia, że badani - ma to być w sumie 400 osób - zapraszani są do laboratorium. "Szukamy tematów, w których każda z tych osób ma jasne, dobrze określone zdanie" - mówi. Podaje przykład, że wśród tematów, na które wypowiadają się badani, czasem są poważne tematy dotyczące aborcji, eutanazji albo np. tego, czy ludzie są z natury dobrzy czy źli. A czasem sprawy bardziej przyziemne. Np. czy Ewa Chodakowska jest najlepszą polską trenerką albo czy Robert Lewandowski jest najlepszym polskim piłkarzem. Są i tematy związane z nauką - dotyczące szczepionek czy... Jerzego Zięby.

"Potem prosimy badanych, aby raz napisali nam opinię zgodną z ich poglądem, a raz niezgodną. A także, by raz opowiedzieli nam o swoim stanowisku, a potem by przedstawili opinię kompletnie niezgodną ze swoim poglądem. W sumie to cztery wypowiedzi" - mówi. Wypowiedzi ustne są transkrybowane - powstają z nich więc teksty. "W ten sposób powstanie korpus, w którym doskonale wiemy, która wypowiedź jest zgodna z opinią badanej osoby, a która nie" - mówi badaczka. Sztuczna inteligencja analizować będzie jedynie tekst - przede wszystkim pozaleksykalne i stylistyczne aspekty wypowiedzi. I na jej podstawie wyznaczać cechy związane z kłamstwem i mówieniem prawdy.

Psycholog dodaje, że nagrania i teksty - niezależnie od sztucznej inteligencji - oceniać będą też inni ludzie. Mają oni zgadnąć, która z wypowiedzi jest fałszywa, a która prawdziwa. "W ten sposób próbujemy wyłonić wiarygodnych kłamców - osoby, którym się wierzy, kiedy mówią nieprawdę. Ale i w drugą stronę. Bo są nieszczęśnicy, którym odbiorcy nie wierzą, kiedy mówią prawdę" - wyjaśnia. Algorytm pomoże ustalić, czym charakteryzują się takie osoby.

A odróżnienie prawdy od kłamstwa to wbrew pozorom wcale nie jest łatwe zadanie. "Ludzie mają mniej więcej 53-54-procentową skuteczność rozpoznawania kłamstw osób, których nie znają" - mówi. To skuteczność odrobinę tylko większa od losowej. Równie dobrze więc, żeby zgadnąć, można byłoby rzucać monetą (wtedy skuteczność wyniosłaby 50 proc.).

Wstępne wyniki pokazują, że program trenowany przez psychologów - choć zbadano dopiero 3/4 badanych - już jest skuteczniejszy niż człowiek.

Pytana, czy nie boi się udostępnić w sieci takiego programu, zaprzecza: "To tak, jak udostępnić młotek i bać się, czy ktoś go nie użyje, żeby kogoś zabić".

Psycholog nie obawia się także, że program np. rozbije wiele małżeństw. "Jeśli chodzi o odgadywanie prawdomówności osoby, z którą jesteśmy w bliskim związku, ludzie naprawdę nieźle sobie z tym radzą. Żona nie potrzebuje sztucznej inteligencji, żeby stwierdzić, czy mąż jest nie do końca uczciwy" - uśmiecha się badaczka. I dodaje: "Na pierwszy ogień na pewno pójdą politycy". Zaznacza jednak, że sztuczna inteligencja jest coraz bardziej skuteczna, ale może się mylić.

Według niej narzędzie może niektórym osobom wręcz pomóc. "Zwłaszcza chodzi o osoby, które - nawet gdy mówią prawdę - nie są odbierane, jako uczciwe" – uważa.

Dr Sarzyńska-Wawer informuje, że z badań w USA i Wielkiej Brytanii wynikło, że wypowiedzi kłamliwe są prostsze. "Kłamanie jest obciążające poznawczo, więc kłamcy nie mają zasobów, by skomplikowane konstrukcje tworzyć. Przyjmuje się, że kłamstwo związane jest z poczuciem winy. Kiedy więc celowo mówi się nieprawdę, pojawia się więcej określeń z negatywną walencją, czyli negatywnie nacechowanych. Są też badania pokazujące, że wypowiedzi osób, które kłamią, są bardziej abstrakcyjne. Jest więc cała klasyfikacja czasowników, które pozwalają z większa pewnością zgadywać, że ktoś kłamie. Zauważono też, że kiedy ludzie kłamią, używają mniej zaimków pierwszoosobowych" - podsumowuje psycholog. Naukowcy chcą teraz sprawdzić, czy te same zjawiska występują, kiedy kłamie się w języku polskim.

"Modele do przetwarzania naturalnego języka są w stanie wyłapywać wiele charakterystyk wypowiedzi. Powstały już np. narzędzia, które na podstawie wypowiedzi analizują, czy jej autor może chorować na schizofrenię czy autyzm. Ja chcę wykorzystać możliwości, jakie daje sztuczna inteligencja, do badania zjawiska kłamstwa" - kończy dr Sarzyńska-Wawer.

Projekt „Metody poznawcze deep learning w wykrywaniu wiarygodnych kłamców” realizowany jest ze środków Narodowego Centrum Nauki.

PAP - Nauka w Polsce, Ludwika Tomala

lt/ agt/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Psychiatrzy: chcemy zbadać potencjał psylocybiny w leczeniu lekoopornej depresji

  • Fot. Adobe Stock

    Życzliwy jak Polak? Badacze USWPS zbadali życzliwość rodaków

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera