Nowoczesne wojsko korzysta ze sztucznej inteligencji praktycznie w każdym obszarze – od rozpoznania, przez dowodzenie, po rażenie przeciwnika. Komputery potrafią już często więcej niż ludzie, a będą potrafiły jeszcze więcej. Czy może dojść do walki między maszynami? Czy człowiek zostanie zmarginalizowany? Czy wojskową SI można – albo trzeba - ściśle kontrolować? Opowiada o tym płk. dr inż. Rafał Kasprzyk z WAT.
Płk. dr inż. Rafał Kasprzyk jest zastępcą dziekana Wydziału Cybernetyki Wojskowej Akademii Technicznej. W latach 2017-2018 był zaangażowany w prace Zespołu Zadaniowego powołanego w celu wypracowania Koncepcji Rozwoju Zdolności Resortu Obrony Narodowej do Działań w Cyberprzestrzeni. Był pomysłodawcą i kierownikiem powołanej w 2018 roku Pracowni Modelowania i Analizy Cyberprzestrzeni w Instytucie Systemów Informatycznych Wydziału Cybernetyki Wojskowej Akademii Technicznej. W latach 2020 - 2021 kierował Zakładem Systemów Symulacyjnych i Wspomagania Dowodzenia w Instytucie Systemów Informatycznych.
Nauka w Polsce: Czy sztuczna inteligencja zdominuje pola bitew?
Płk. dr inż. Rafał Kasprzyk: Jednoznacznej odpowiedzi trudno jest na to pytanie udzielić, jednak sztuczną inteligencję - podobnie jak inne przełomowe (ang. disruptive) technologie - opracowuje się właśnie po to, aby uzyskać militarną przewagę, czy wręcz dominację nad potencjalnym przeciwnikiem. Technologie tzw. pierwszej fali to osiągnięcia związane z bronią jądrową, międzykontynentalnymi pociskami balistycznymi oraz systemami satelitarnymi (w tym satelitami szpiegowskimi). Technologie tzw. drugiej fali to przede wszystkim „niewidoczny” (ang. stealth) sprzęt i broń precyzyjnego naprowadzania na cel (ang. smart bombs). Obecnie mówi się o technologiach tzw. trzeciej fali, do których zaliczyć można: „inteligentne” maszyny adaptujące się do otoczenia, technologie umożliwiające przetwarzanie ogromnych ilości danych w celu wsparcia procesu podejmowania decyzji, technologie zwiększające sprawność fizyczną i umysłową człowieka, technologie umożliwiające efektywną współprace ludzi i „inteligentnych” maszyn, w końcu autonomiczne lub częściowo autonomiczne systemy uzbrojenia. Mówiąc kolokwialnie SI wchodzi do wojska drzwiami i oknami.
NwP: Gdzie już dzisiaj się ją stosuje?
R.K.: W siłach zbrojnych mówi się o działaniach w różnych domenach – na lądzie, na wodzie, w powietrzu i cyberprzestrzeni. Teraz wymienia się już także domenę kosmiczną. W każdej z tych domen siły zbrojne rozwijają różne kompetencje – tzw. zdolności, które z kolei dzielą się na różne obszary. SI wkracza już do każdego z tych obszarów.
Pierwszym z nich jest obszar dowodzenia – od pojedynczych żołnierzy, po całe armie. SI używa się już nawet do generowania wariantów działań. Kiedyś to sztab przygotowywał, powiedzmy umownie, 3 warianty z rekomendacją najlepszego, a dowódca podejmował decyzję. Dzisiaj sztuczna inteligencja jest w stanie wygenerować różne warianty działań na poziomie taktycznym, operacyjnym, a także strategicznym wraz z rekomendacją tego, który przy ustalonych kryteriach jest tym właściwym pozwalającym na osiągniecie celu.
NwP: Sztab czy sztuczna inteligencja muszą jednak dysponować odpowiednimi informacjami…
R.K.: Proces dowodzenia wymaga zdolności z obszaru rozpoznania, które to zdolności umożliwiają tworzenie świadomości sytuacyjnej na polu walki, czyli w uproszczeniu po prostu obrazu sytuacji. Sztuczną inteligencję wykorzystuje się już np. do fuzji danych z różnych urządzeń, sensorów, np. umieszczonych na satelitach, dronach, czy w wyposażeniu żołnierzy. SI potrafi już doskonale rozpoznawać i śledzić obiekty. Umie już też np. podać geolokalizację jakiegoś obiektu fizycznego na podstawie zdjęcia tego obiektu pozbawionego metadanych.
Niektóre możliwości zaczynają przypominać sceny ze świata sci-fi. Już w czasie poszukiwań bin Ladena korzystano z systemu, który potrafił określić funkcję danego budynku na podstawie wzorców zachowania osób w tych budynkach przebywających oraz wchodzących i wychodzących.
Systemy rozpoznania wykorzystujące sztuczną inteligencję używa się też np. na Ukrainie, gdzie dzięki analizie zdjęć satelitarnych możliwe staje się określanie położenia wojsk czy wykrywanie różnych obiektów w czasie zbliżonym do rzeczywistego. Potrzebne jest też monitorowanie stanu zdrowia i kondycji żołnierzy, tak na polu walki, jak i w czasie treningu. Tutaj też używa się już sztucznej inteligencji.
NwP: Wojska i różnego typu sprzęty trzeba na miejsce przetransportować. Czy tu SI także może pomóc?
R.K.: Logistyka i zabezpieczenie działań to kolejny obszar, gdzie można wykorzystać „inteligentne” maszyny. Po pierwsze SI pomoże w zaplanowaniu wszystkich prac, transportu, a nawet serwisowania sprzętu (może na przykład przewidzieć, kiedy trzeba będzie zmienić olej w jakimś pojeździe). Ma to szczególne znaczenie dla takich krajów, jak USA, które mają swoje jednostki na całym globie. Jednak także w mniejszej skali to bardzo pomaga. Chodzi o to, aby zoptymalizować wykorzystanie wszelkich zasobów. Wsparty może być też transport na polu walki – np. roboty Boston Dynamics, takie jak Big Dog mogą nosić ciężki ekwipunek. Tymczasem, jeśli już się rozpozna sytuację, opracuje plan działania i zapewni logistykę dla operacji - trzeba niestety często przejść do rażenia.
NwP: Czyli zaatakować?
R.K.: Tak, i tutaj w obszarze rażenia pojawia się najwięcej dylematów odnośnie wykorzystania sztucznej inteligencji.
NwP: Jakiego rodzaju?
R.K.: Chodzi o to, na co pozwolić sztucznej inteligencji – czy powinna np. odpowiadać za wystrzelenie pocisku, czy jednak „naciśnięcie spustu” pozostawiamy człowiekowi? Do tej pory żadne państwo, przynajmniej oficjalnie, nie buduje całkowicie autonomicznych systemów rażenia. Ostateczna decyzja należy do człowieka. Mówi się, że niektóre kraje, np. Rosja czy Chiny, są bardziej skłonne do podejmowania ryzyka na tym polu. Z drugiej strony, jeśli spełnią się wizje kolonizacji Marsa – kto wie, być może tam również dojdzie do konfliktów zbrojnych. Jeśli stosowane byłyby bojowe maszyny sterowane z Ziemi, musiałyby mieć wysoki poziom autonomii ze względu na duże opóźnienie sygnału.
NwP: Jaką broń można teoretycznie wyposażyć w sztuczną inteligencję?
R.K.: Właściwie każdą. Mówi się wtedy o uzbrojonej sztucznej inteligencji (ang. weaponized AI).
NwP: Humanoidalny robot, taki jak np. Atlas, mógłby dostać do rąk karabin?
R.K.: Na przykład. Obecnie jednak SI wspiera proces decyzyjny i na razie to człowiek podejmuje ostateczną decyzję.
NwP: Przed rażeniem wojsko stara się tymczasem chronić. Tu zapewne też SI ma wiele do zaoferowania…
R.K.: Jak najbardziej – kolejny obszar zdolności to ochrona i przetrwanie wojsk. Mowa tu m.in. o wszelkich rozwiązaniach chroniących żołnierza, np. o wykrywaniu min i innych pracach niebezpiecznych, a także trudnych lub po prostu nudnych. Zamiast człowieka może je wykonywać inteligentny robot. SI może np. pomagać w maskowaniu lub dezorientowaniu rakiet wroga – np. z pomocą roju małych dronów. Warto tutaj wskazać na Chiny, które mają dobrze rozwiniętą technologię swarmingu, czyli właśnie sterowania takimi rojami małych "inteligentnych" maszyn.
NwP: A co, jeśli doktryna się zmieni i jakiś kraj będzie chciał tworzyć całkowicie autonomiczne maszyny bojowe – samodzielnie strzelające roboty, autonomiczne czołgi. Czy obecnie dałoby się to zrobić?
R.K.: Od strony technicznej za jakiś czas może się to stać możliwe, choć to raczej jeszcze nie ten etap, ze względu na liczne wyzwania. Popatrzmy na przykład autonomicznych samochodów. Ich zadanie jest relatywnie łatwe – przemieścić się z punktu A do punktu B, po równej, dobrze oznakowanej drodze. Tymczasem maszyna wojskowa musiałaby najczęściej pokonywać trudny, a do tego nieznany, pełen niespodzianej teren. Mogłaby napotkać liczne przeszkody, które trudno przewidzieć. Co więcej, taką maszynę - przynajmniej dzisiaj - łatwo zmylić.
NwP: W jaki sposób?
R.K.: Znowu posłużę się przykładem autonomicznego samochodu. Jeśli jakiś znak drogowy np. znak stopu, zostanie zniszczony czy zamalowany przez wandala, autonomiczny samochód wyposażony jest w stosowne mechanizmy reagowania na takie przypadki i w oparciu o pozostałe informacje z otoczenia zebrane za pomocą ogromnej liczby sensorów "poradzi sobie" zwykle wyśmienicie. Istnieją jednak specjalnie metody ataków, które nazwałbym atakami przemyślanymi czy "inteligentnymi" w odróżnieniu od aktu wandalizmu. Takie przemyślane ataki pozwalają na uzyskiwanie tzw. antagonistycznych porcji danych, które można na wspomniany znak stopu np. nakleić. Takie przemyślane ataki wprowadzają autonomiczny samochód w błąd, który to błąd może być katastrofalny w skutkach. Podobnie można by oddziaływać np. na autonomiczne czołgi czy inne "inteligentne" maszyny. Wspomniane antagonistyczne porcje danych tworzone są zwykle, także przez SI. Warto zwrócić uwagę, że sztuczna inteligencja pozwala też się przed takimi atakami bronić np. przez poszukiwania zawczasu możliwych antagonistycznych przykładów danych i ich uwzględniania na etapie procesu uczenia się "inteligentnej" maszyny. Pojawia się więc zagadnienie walki maszyn.
NwP: A co z wojną w cyberprzestrzeni? Dzisiaj, zamiast zrzucać bomby, można np. wyłączyć zdalnie elektrownie, oczyszczalnie ścieków czy inne elementy infrastruktury, albo np. doprowadzić do zamieszania w systemie bankowym.
R.K.: Tak naprawdę różne systemy komputerowe od dawna są przesiąknięte sztuczną inteligencją. Jeśli chodzi o zastosowania militarne, to SI można wykorzystywać na różne sposoby. Można z jej pomocą poszukiwać podatności własnych systemów na ataki (żeby się móc bronić) czy w systemach wroga (aby móc zaatakować). Takie działania wpisują się w operacje określane mianem CyberOps, ale sztuczna inteligencja ma olbrzymi potencjał również jeśli chodzi o operacje InfoOps.
NwP: Co to takiego?
R.K.: Z pomocą sztucznej inteligencji da się oddziaływać na społeczeństwo. Z jednej strony można badać nastroje danych grup czy społeczności całych państw, poprzez analizę różnych internetowych źródeł. Z drugiej strony – choć oczywiście nie wolno tego robić – technika pozwala na wpływanie na ludzi. Na Facebooku przeprowadzono kiedyś doświadczenie, w którym udowodniono, że możliwe jest oddziaływanie na nastroje ludzi odpowiednimi treściami, tj. udostępnianymi postami. Co więcej, kolejne doświadczenie na Facebooku udowodniło, że można wpływać na wyniki wyborów – np. zwolenników jednej partii, w subtelny sposób zachęcać do głosowania, a innej – zniechęcać.
NwP: Szeroko pojęta SI to więc narzędzie niezwykle potężne. Najpewniej jej moc będzie rosła i to coraz szybciej. Jest się czego bać?
R.K.: SI to narzędzie, podobnie jak nóż, którym można albo się zaciąć, albo ukroić kawałek chleba. Trzeba jednak przyznać, że z SI jest tak, że często nie rozumiemy do końca, jak dany system działa. Podobnie jednak jest z ludzkim mózgiem. Trzeba też zaznaczyć, że obecne systemy zwykle nie są jakoś specjalnie kreatywne. Po prostu rośnie moc obliczeniowa i pamięć komputerów i to pozwala SI na pracę z olbrzymimi zbiorami danych. A przy tym w wojsku każdy dodatkowy system, a więc również oparty na SI, to kolejny cel do zaatakowania. Im coś jest bardziej skomplikowane – tym jest podatniejsze na działania wroga, więc nie warto przesadzać z rozbudową inteligentnych systemów. Mimo wszystko SI trzeba oczywiście kontrolować.
NwP: W jaki sposób?
R.K.: Rozważa się trzy koncepcje. W jednej, nazwanej "human in the loop" człowiek podejmuje wszystkie najważniejsze decyzje, a SI tylko podpowiada. Na drugim krańcu jest podejście "human out of the loop", kiedy to człowiek jest wyłączony z procesu decyzyjnego. Wtedy walczyłyby ze sobą zaawansowane SI. Trzecia droga to "human on the loop", w której człowiek nadzoruje pracę SI. Komputer działa samodzielnie, ale ludzie mogą w każdej chwili zaingerować. Przy tym podejściu może się jednak zmaterializować scena z filmu "Terminator", kiedy próbowano wyłączyć Skynet, ale okazało się to niemożliwe.
NwP: Nie jest tak, że zawsze można "wyjąć wtyczkę"?
R.K.: Nieżyjący już Stephen Hawking na argument, że zawsze w ostateczności można "wyjąć wtyczkę" zapytał retorycznie – "a co, jeśli sztuczna inteligencja przewidzi, że ktoś będzie chciał tę wtyczkę wyjąć?". Prywatnie jednak myślę, że od "dnia sądu" z "Terminatora" jesteśmy bardzo ale to bardzo daleko, jeśli w ogóle mogłoby dojść do czegoś takiego. W filmach z Hollywood sztuczna inteligencja jest często wiązana z samoświadomością maszyn i ich buntem będącym moim zdaniem raczej cechą ludzi dążących z natury do wolności niż cechą mogącą się pojawić w nawet niezwykle "inteligentnej" maszynie. Ale pewności nie mam...
NwP: Ale czy teoretycznie automaty nie mogłyby wystąpić przeciw ludziom, bez żadnej świadomości tego, co robią?
R.K.: Tak naprawdę teoretycznie mogłoby się tak zdarzyć. SI jest, jak to się mówi, brutalnym optymalizatorem, ale na razie to człowiek decyduje o kryteriach optymalizacji. Problem leży w tym, że właśnie nie do końca rozumiemy, co się w systemach SI dzieje. Można wyobrazić sobie sytuację, kiedy sztuczna inteligencja dostałaby zadanie doprowadzenia do tego, aby Ziemia była piękna i przyjazna dla życia człowieka. Maszyna mógłby to źle zrozumieć i np. dojść do wniosku, że trzeba zniszczyć właśnie człowieka, aby warunki życia na ziemi nie pogarszały się tylko polepszały. Myślę, że, jednak nie ma powodu, aby sztuczną inteligencją straszyć.
Nauka w Polsce, Marek Matacz
mat/ zan/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.