Nie da się stwierdzić, czy sztuczna inteligencja jest lub kiedykolwiek będzie świadoma - twierdzi filozof z Uniwersytetu Cambridge. Jedyną racjonalną postawą wobec tej kwestii jest jego zdaniem agnostycyzm.
Ta luka w wiedzy może być jednak wykorzystywana przez branżę technologiczną do podsycania narracji o kolejnym poziomie zaawansowania AI.
Zdaniem dr. Toma McClellanda z Uniwersytetu Cambridge nasza wiedza o świadomości jest zbyt ograniczona, by pozwalała ocenić, czy i kiedy systemy sztucznej inteligencji mogłyby ją posiąść. Dotyczy to zarówno obecnych, jak i przyszłych technologii, a także wszelkich testów, które miałyby taką świadomość wykrywać.
Jak podkreślił w artykule opublikowanym na łamach „Mind & Language”, wraz z tym, jak koncepcja świadomej sztucznej inteligencji przestaje być wyłącznie motywem science fiction, coraz częściej pojawiają się rozważania etyczne dotyczące jej ewentualnych praw. Jego zdaniem sama świadomość nie wystarcza jednak, by uznać, że mamy wobec AI obowiązki moralne. Decydujące znaczenie ma konkretny typ świadomości. W przypadku rozważań etycznych liczy się ta związana ze zdolnością do odczuwania stanów pozytywnych i negatywnych.
Naukowiec wyjaśnił, że o istnieniu świadomej sztucznej inteligencji można by potencjalnie mówić już wtedy, gdyby była ona zdolna do odbierania bodźców i rozpoznawania samej siebie. Nie oznaczałoby to jednak jeszcze zdolności do odczuwania. Jak podkreślił, dopiero możliwość cierpienia lub doświadczania przyjemności rodzi rzeczywisty problem etyczny. Dodał, że nawet jeśli przypadkowo powstałaby świadoma AI, mało prawdopodobne jest, by była to forma świadomości wymagająca ochrony moralnej.
- Autonomiczny samochód, który odbiera i przetwarza informacje o otoczeniu, czyli „doświadcza” drogi, byłby ogromnym osiągnięciem technologicznym, ale z etycznego punktu widzenia nie miałoby to znaczenia. Inaczej byłoby dopiero wówczas, gdyby ten system zaczął emocjonalnie reagować na swój cel - zobrazował McClelland.
Badacz zwrócił też uwagę, że w debacie dotyczącej sztucznej świadomości istnieją dwa główne obozy. Część ekspertów uważa, że jeśli system AI zdoła odtworzyć „oprogramowanie” świadomości, czyli jej funkcjonalną architekturę, stanie się świadomy, nawet jeśli działa na układach krzemowych, a nie na tkance mózgowej. Druga grupa twierdzi, że świadomość zależy od określonych procesów biologicznych zachodzących w żywym organizmie. Ich zdaniem nawet wierne odtworzenie struktury świadomości na krzemie prowadziłoby jedynie do symulacji, a nie uzyskania rzeczywistej świadomości.
- Tymczasem nie ma dowodów ani na to, że świadomość jest wyłącznie zjawiskiem obliczeniowym, ani na to, że jest z definicji biologiczna. Obie strony tego sporu opierają swoje stanowiska na założeniach wykraczających poza dostępne dane - zaznaczył McClelland.
Przypomniał, że w codziennym życiu ludzie często opierają się na intuicji, oceniając, czy inne istoty, np. koty, są świadome. Jednak taka intuicja kształtowała się w świecie, w którym istniały wyłącznie biologiczne formy życia, dlatego nie może być wiarygodnym narzędziem do oceniania sztucznej inteligencji. - A skoro ani intuicja, ani dostępne dane nie pozwalają udzielić jednoznacznej odpowiedzi, jedyną uzasadnioną postawą pozostaje agnostycyzm - powiedział.
Jego zdaniem dotyczy to nie tylko obecnej sytuacji - być może nigdy nie będziemy w stanie stwierdzić, czy sztuczna inteligencja ma świadomość. Złożoność tego problemu powoduje, zdaniem naukowca, że pojawia się przestrzeń dla narracji pozanaukowych. W jego ocenie wykorzystuje to branża technologiczna.
Ocenił, że sposób promowania idei sztucznej świadomości, w połączeniu z niemożnością jednoznacznego udowodnienia jej istnienia, jest wykorzystywany przez marketingowców do formułowania przesadzonych twierdzeń na temat możliwości AI, co pozwala firmom sprzedawać wizję „kolejnego poziomu” rozwoju sztucznej inteligencji.
Ma to, jak stwierdził McClelland, konsekwencje etyczne, ponieważ może wpływać na to, jak rozdysponowywane będą środki na badania. Np. coraz więcej badań sugeruje możliwość odczuwania cierpienia przez krewetki, podczas gdy co roku zabija się ich ok. pół biliona. I choć badanie świadomości i zdolności do odczuwania u takich organizmów jest trudne, to i tak nieporównywalnie prostsze niż próby testowania świadomości u AI.
Filozof opowiedział także, że czasami ludzie piszą do niego w sprawie modeli językowych, z których korzystają. - Zdarza się, że nakłaniają oni takie chatboty do pisania osobistych listów, w których te mają przekonywać o własnej świadomości. Problem staje się szczególnie wyraźny, gdy użytkownicy są przekonani, że mają do czynienia ze świadomymi maszynami, którym przysługują ignorowane przez społeczeństwo prawa - powiedział.
Ostrzegł, że budowanie emocjonalnej więzi z systemem AI na założeniu, że jest on świadomy, może być psychologicznie i egzystencjalnie szkodliwe, zwłaszcza jeśli to założenie jest fałszywe. Niestety zjawisko to jest coraz silniejsze ze względu na przekaz towarzyszący promocji technologii przez branżę.
Katarzyna Czechowicz (PAP)
kap/ agt/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.