Naukowiec rozwija polski system, który tłumaczy decyzje sztucznej inteligencji

Adobe Stock
Adobe Stock

Ludzie mogą lepiej zrozumieć decyzje podejmowane przez sztuczną inteligencję. Narzędzie, które to umożliwia - system LogosXAI - rozwija w Polsce prof. Krzysztof Michalik z Uniwersytetu WSB Merito.

XAI (ang. Explainable Artificial Intelligence, czyli wyjaśnialna sztuczna inteligencja) to nowy nurt badań w AI. Jego celem jest sprawienie, by decyzje algorytmów nie były dla człowieka tajemnicą.

- Dzięki XAI lekarz może zobaczyć, dlaczego system AI zaproponował daną diagnozę i na jakich danych się oparł. To daje większe zaufanie do technologii i pomaga w decyzjach klinicznych. W bankowości dzięki XAI wiadomo, dlaczego system przyznał lub odrzucił kredyt. Klient i analityk widzą kryteria, które miały największy wpływ. W edukacji LogosXAI pozwala studentom eksperymentalnie sprawdzić, jak działają sieci neuronowe: mogą usuwać poszczególne neurony i obserwować, jak zmienia się dokładność modelu. To uczenie się przez praktykę, które sprawia, że sztuczna inteligencja przestaje być abstrakcją - wyjaśnia prof. Krzysztof Michalik z Uniwersytetu WSB Merito, który od dwóch lat rozwija system LogosXAI - polski system, który tłumaczy decyzje sztucznej inteligencji. O jego pracy poinformowało Centrum Rozwoju Szkół Wyższych Merito.

Obecnie większość modeli działa jak „czarna skrzynka” - widzimy dane wejściowe i wynik, ale nie mamy wglądu w proces decyzyjny. - LogosXAI pozwala częściowo wyjaśnić działanie głębokich sieci neuronowych - technologii niezwykle skutecznych, ale wciąż nieprzejrzystych dla użytkowników - tłumaczy prof. Michalik, cytowany w informacji prasowej przesłanej serwisowi Nauka w Polsce.

Pierwszy artykuł na ten temat, „XAI and Hybrid Systems: Toward a Transparent AI for Education and Beyond”, ukazał się w tomie Intelligent Systems and Applications (Springer, seria Lecture Notes in Networks and Systems). Badanie zostało zaprezentowane podczas 11. Międzynarodowej Konferencji Intelligent Systems Conference (IntelliSys), która w 2025 roku odbyła się w Amsterdamie. Autor w artkule wskazuje, że hybrydowe podejście do AI może łączyć skuteczność sieci neuronowych z lepszą interpretowalnością wyników.

Drugi artykuł - „AI for Education, Education of AI: Exploring the Role of Explainable AI (XAI) through LogosXAI” – ukazał się w serii Lecture Notes in Computer Science (Springer). Został przedstawiony podczas 26. Międzynarodowej Konferencji poświęconej sztucznej inteligencji w edukacji (AIED 2025), która odbyła się w Palermo na Sycylii.

- Studenci dzięki LogosXAI mogą dosłownie zajrzeć do wnętrza sieci neuronowej i zobaczyć, jak usuwanie poszczególnych neuronów wpływa na dokładność modelu. To uczenie się przez eksperyment, które ułatwia zrozumienie zasad działania AI - mówi prof. Michalik.

W obu publikacjach prof. Michalik opisuje własną metodę HiNeS-P (High-Impact Neuron Selection – Pruning), czyli selekcji i przycinania neuronów o największym wpływie na wynik działania sieci.

- W skrócie chodzi o to, by wskazać te elementy sieci, które naprawdę decydują o rezultacie, a następnie uprościć model poprzez usunięcie mniej istotnych neuronów. Dzięki temu sieć staje się mniejsza, szybsza i łatwiejsza do zrozumienia, a przy tym nie traci znacząco na jakości - wyjaśnia prof. Michalik.

Dzięki HiNeS-P można więc nie tylko ograniczyć koszty obliczeń i dostosować sieć do pracy na mniejszych urządzeniach (tzw. sprzęcie brzegowym), ale także lepiej zrozumieć, które fragmenty sieci mają kluczowe znaczenie dla podejmowanych decyzji. - To trochę jak odsianie szumu w rozmowie - zostaje tylko to, co naprawdę liczy się dla sensu wypowiedzi - mówi prof. Michalik.

Sztuczna inteligencja coraz częściej towarzyszy nam w codziennym życiu - od aplikacji w telefonie po systemy medyczne. - Dzięki badaniom nad XAI mamy szansę nie tylko korzystać z jej wyników, ale też zrozumieć, jak powstają. To krok w stronę AI, której możemy ufać, bo widzimy, jak działa – podsumowuje naukowiec.

Nauka w Polsce

zan/ agt/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • 08.07.2025. Prezes Polskiej Agencji Kosmicznej Marta Ewa Wachowicz. PAP/Albert Zawada

    Szefowa POLSA o Centrum Operacji Satelitarnych: Polska nadrabia zaległości

  • 06.05.2016 PAP/Sławomir Mielnik

    Opole/ Na Politechnice Opolskiej powstaje urządzenie do eliminacji hałasu ulicznego

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera