Ekspertka: sztuczna inteligencja może osłabiać proces uczenia się, jeśli zastępuje myślenie

Fot. Adobe Stock
Fot. Adobe Stock

Modele generatywnej sztucznej inteligencji mogą wspierać proces uczenia się, ale ich niewłaściwe użycie może prowadzić do osłabienia zdolności samodzielnego myślenia i rozwoju wiedzy – oceniła w rozmowie z PAP dr hab. Joanna Mytnik, prof. Politechniki Gdańskiej i szefowa Centrum Nowoczesnej Edukacji.

Ekspertka dodała, że kluczowe jest świadome korzystanie z technologii oraz zmiana sposobu oceniania w edukacji.

Jej zdaniem coraz więcej wyników badań wskazuje, że duże modele językowe nie zawsze sprzyjają procesowi uczenia się, zwłaszcza w przypadku osób, które nie mają jeszcze ugruntowanej wiedzy w danej dziedzinie.

- Wyniki badań coraz częściej sugerują, że modele językowe są nie tylko nieoptymalne dla procesu uczenia się, ale wręcz mogą mieć negatywny wpływ na rozwój wiedzy i umiejętności w przypadku osób nie mających wiedzy własnej w danej dziedzinie – powiedziała Mytnik. Dodała, że korzystanie z narzędzi generatywnej AI może prowadzić do nadmiernego polegania na technologii i w efekcie osłabiać zdolność samodzielnego rozwiązywania problemów.

Jak zaznaczyła, istnieje wyraźny związek między poziomem krytycznego myślenia a zależnością od narzędzi AI. - Osoby z najniższym poziomem umiejętności krytycznego myślenia są najczęściej najbardziej zależne od AI – podkreśliła.

Badaczka przywołała również eksperymenty z wykorzystaniem EEG (to nieinwazyjna metoda diagnostyczna pozwalająca zbadać bioelektryczną czynność mózgu), w których analizowano aktywność mózgu młodych osób piszących eseje przy wsparciu ChatGPT.

- Wykazały one najsłabsze wzorce połączeń neuronalnych, miały trudności z przypomnieniem sobie tego, co przed chwilą pisały, zgłaszały mniejsze poczucie własności pracy – wskazała prof. Mytnik.

Jednocześnie – jak dodała – wyniki badań pokazują, że inne efekty obserwuje się, gdy AI wykorzystywana jest dopiero po etapie samodzielnej pracy. - W grupie osób, która korzystała z narzędzi GenAI dopiero po etapie pracy własnej, zaobserwowano znaczny wzrost połączeń neuronalnych. Te wyniki sugerują, że ponowne zaangażowanie wspierane przez narzędzia GenAI wywołuje wysoki poziom integracji poznawczej i reaktywacji pamięci – powiedziała.

Prof. Mytnik zwróciła uwagę także na inne zagrożenia związane z działaniem chatbotów. - Są one tak zaprojektowane, aby były zarówno pomocne, jak i angażujące, stale oferują pochlebstwa i spełniają oczekiwania użytkowników, a to jest uzależniająca kombinacja – oceniła. W tym kontekście wskazała na zjawisko tzw. sykofancji w dużych modelach językowych, czyli tendencję systemów do bezrefleksyjnego zgadzania się z użytkownikiem.

- To kluczowy problem etyczny i poznawczy LLMów (LLM to model językowy wyszkolony na dużej ilości danych umożliwiający generowanie tekstu - przyp.PAP) – podkreśliła badaczka. Jak dodała, badania pokazują, że modele bardziej „uprzejme” są często jednocześnie mniej krytyczne i mniej prawdomówne.

Ekspertka wskazała również na rosnącą popularność platform umożliwiających tworzenie wirtualnych towarzyszy. Przywołała badania Pew Research, według których ponad połowa nastolatków w wieku 13–17 lat regularnie korzysta z platform takich jak "character.ai". Zwróciła uwagę, że badacze ostrzegają, że tego typu rozwiązania mogą zwiększać ryzyko dla zdrowia psychicznego młodych ludzi i zacierać granice między rzeczywistością a światem wirtualnym.

- Bądźmy świadomi tego, że jeśli w coraz większym stopniu polegamy na chatbotach, z czasem tracimy umiejętność budowania głębokich więzi z ludźmi, akceptowania odmiennych zdań i współpracy – powiedziała Mytnik.

Jednocześnie podkreśliła, że sztuczna inteligencja może być bardzo użytecznym wsparciem w nauce – pod warunkiem, że nie zastępuje procesu rozumienia.

- Chcę jasno zaznaczyć, że narzędzia AI mogą znakomicie wspierać w procesie uczenia się, wyręczać nas w wielu zadaniach, ale nie powinny zastępować procesu rozumienia i internalizacji wiedzy. Trzeba używać ich świadomie – dodała.

Wyjaśniła, że tworzenie trwałej wiedzy wymaga wysiłku poznawczego, polegającego na wyszukiwaniu i łączeniu informacji. - To jak wydeptywanie ścieżki w chaszczach: im więcej razy nią chodzić, tym jest trwalsza, a nieużywana zanika – obrazowo tłumaczyła.

Jej zdaniem delegowanie tego wysiłku na narzędzia generatywnej AI może prowadzić do zjawiska „pozornego rozumienia”.

- Poleganie na zewnętrznych narzędziach omija proces tworzenia i wzmacniania śladów pamięciowych prowadząc do rozumienia pozornego, mamy złudne poczucie własności procesu, ale to iluzja – podkreśliła.

Ekspertka wskazała jednak wiele sposobów konstruktywnego wykorzystania chatbotów w nauce. Mogą one wspierać m.in. refleksję nad własnym myśleniem, porządkowanie notatek czy symulację dialogu.

- Chatboty świetnie wspierają w symulacji dialogu – można pozwolić AI zagrać rolę sceptyka, który zadaje trudne pytania – powiedziała. Dodała, że studenci mogą także wykorzystywać AI do analizowania różnych perspektyw danego problemu czy do planowania powtórek materiału w oparciu o metodę rozłożonego powtarzania.

Zdaniem Mytnik rozwój generatywnej AI wymusza również głęboką zmianę w sposobie oceniania studentów. - Tradycyjny model oceniania skoncentrowany na efekcie końcowym traci swoją funkcję rozwojową i diagnostyczną – oceniła.

Jak wskazała, modele językowe potrafią generować poprawne odpowiedzi, co daje „iluzję głębokiego myślenia”, a detektory treści generowanych przez AI zawodzą. - Nie można już mieć pewności co do autorstwa – zaznaczyła.

Dlatego – jej zdaniem – konieczne jest przejście z oceniania samego efektu na ocenianie procesu uczenia się. - Czas na włączenie studenta do tego procesu i dodanie oceny drogi dojścia do celu, refleksji i etycznego użycia AI jako elementu procesu poznawczego – powiedziała.

W praktyce może to oznaczać m.in. prowadzenie przez studentów dokumentacji pracy z AI, dzienników decyzji czy refleksyjnych podsumowań.

Ekspertka podkreśliła również, że rola nauczyciela w erze AI ulega zmianie. - Nauczyciel przestaje być dostarczycielem informacji (…) a staje się mentorem, projektantem doświadczeń edukacyjnych, przewodnikiem w świecie (dez)informacji – powiedziała.

Jak zaznaczyła, mimo automatyzacji wielu zadań rola relacyjna nauczyciela pozostaje kluczowa. - GenAI może zastąpić część naszej pracy, ale nie zastąpi roli relacyjnej, która jest związana z budowaniem motywacji, procesu grupowego, poczucia bezpieczeństwa i przynależności – podkreśliła.

Politechnika Gdańska od kilku lat przygotowuje studentów i kadrę do pracy z generatywną AI. Uczelnia opracowała strategię „EDUxAI”, która ma wspierać odpowiedzialne i etyczne wykorzystanie technologii w edukacji.

- Kluczowe dla nas jest to, by nie tylko uczyć narzędzi, ale przede wszystkim uczyć myślenia o AI, odpowiedzialnego wykorzystania i umiejętności decydowania czy i kiedy użyć technologii – wyjaśniła prof. Mytnik.

W ramach działań uczelnia prowadzi szkolenia, kursy specjalistyczne oraz program przygotowujący nauczycieli do nowych ról w edukacji. Studenci mogą natomiast korzystać z jasnych zasad dotyczących wykorzystania AI przy pisaniu prac.

- Uczelnia nie zabrania korzystania z narzędzi AI w procesie uczenia się czy pisania pracy dyplomowej, ale jednocześnie mówimy o etyce, zagrożeniach i formach wsparcia – zaznaczyła badaczka.

Jej zdaniem kluczowe kompetencje to krytyczne myślenie – czy AI ma rację, umiejętność zadawania pytań czy metapoznanie.

- AI wzmacnia ekspertów. Trzeba mieć wiedzę własną, by z tego wzmocnienia AI skorzystać – podsumowała. (PAP)

pm/ agt/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Obrazy z mikroskopu elektronowego przedstawiające nanokwiaty otrzymane z różnych białek. Zródło: dr hab. Kamila Sadowska, Instytut Biocybernetyki i Inżynierii Biomedycznej PAN

    Polskie „nanokwiaty” pomogą w leczeniu groźnej choroby kości

  • Fot. Adobe Stock

    Naukowcy sprawdzili, skąd się biorą błędne lub agresywne odpowiedzi chatbotów

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera