
Stworzeniem ze sztucznej inteligencji godnego zaufania, bezpiecznego narzędzia będzie się zajmował międzynarodowy zespół Centrum Wiarygodnej Sztucznej Inteligencji, które otwarto we wtorek na Politechnice Warszawskiej.
Dyrektor Centrum Współpracy Międzynarodowej Politechniki Warszawskiej (PW) Grzegorz Robak powiedział podczas wtorkowej inauguracji, że centrum zostało utworzone, ponieważ szybki rozwój technik sztucznej inteligencji nie szedł dotąd w parze z rozwojem technologii związanych z jej bezpieczeństwem. – Misją centrum jest pomoc w zrozumieniu, jak tworzyć systemy sztucznej inteligencji, które są skuteczne, przejrzyste i weryfikowalne – wyjaśnił.

Centrum Wiarygodnej Sztucznej Inteligencji (Centre for Credible AI, CCAI) będzie rozwijać nowe metody wieloetapowego wyjaśniania i walidacji modeli AI. W efekcie mają powstać służące temu narzędzia i schemat kształcenia specjalistów umiejących projektować godne zaufania systemy sztucznej inteligencji.
CCAI powstało dzięki prawie 30 mln zł z programu Fundusze Europejskie dla Nowoczesnej Gospodarki (FENG), przyznanych przez Fundację na rzecz Nauki Polskiej (FNP).
Prof. Krzysztof Pyrć, prezes zarządu FNP, podczas otwarcia CCAI stwierdził: – Mam szczerą nadzieję, że ta inwestycja przyniesie korzyści nie tylko uczelni, ale także społeczeństwu.

W rozmowie z PAP prof. Pyrć dodał, że nowy ośrodek jest jednym z powstających dzięki FNP Centrów Doskonałości. – Te międzynarodowe agendy badawcze mają wynosić naukę na wyższy poziom, skupiać doskonałych naukowców i budować doskonałe otoczenie naukowo-gospodarcze. Mają zbliżać naukę do społeczeństwa i biznesu, tworząc wartość, która później będzie przekładała się na jakość życia i konkurencyjność naszej gospodarki – podkreślił szef FNP.
Zauważył, że niewiarygodna AI, wykorzystywana na przykład w medycynie albo wojskowości, jest poważnym zagrożeniem, stąd konieczność prac nad weryfikowalnymi i godnymi zaufania rozwiązaniami.
Dyrektor CCAI prof. dr hab. inż. Przemysław Biecek poinformował w rozmowie z PAP, że w centrum działają cztery grupy badawcze. Jeden zespół zajmuje się interakcją AI z człowiekiem: ma analizować algorytmy wykorzystywane przez platformy społecznościowe. Druga grupa jest skupiona na prawach fizycznych, bo – zdaniem naukowca – modele AI często nie rozumieją fizyki i świata rzeczywistego. W centrum zainteresowania kolejnych zespołów są medycyna i fundamenty matematyczne AI. – Będzie to więc interdyscyplinarna przygoda – ocenił prof. Biecek.
Przyznał, że prace nad wiarygodną sztuczną inteligencją są trudniejsze niż tworzenie standardowych modeli AI. – Trenowanie modeli AI jest relatywnie proste. Stawia się pewną funkcję celu, resztę robi komputer. Trzeba po prostu mieć dużo danych i mocy obliczeniowej. Ale okazuje się, że wiele z tych modeli uczy się niepoprawnych zachowań. Szukanie zachowań poprawnych to prawdziwa intelektualna zagadka, bardzo ciekawa, ale też trudna – podsumował prof. Przemysław Biecek.

Partnerem CCAI jest Fraunhofer Heinrich-Hertz-Institut (HHI) w Berlinie (Niemcy) – ośrodek specjalizujący się w telekomunikacji, przetwarzaniu sygnałów, wizji komputerowej i sztucznej inteligencji. (PAP)
Nauka w Polsce
abu/ bar/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.