Ekspertka: AI jest niesprawiedliwa i powiela nierówności tak samo, jak my

Fot. Adobe Stock
Fot. Adobe Stock

Często słyszymy, że sztuczna inteligencja jest obiektywna i sprawiedliwa. Ale ponieważ algorytmy karmione są danymi skrzywionymi przez nieobiektywną rzeczywistość - i ona będzie te uprzedzenia powielać. Dopóki społeczeństwo będzie niesprawiedliwe, nieinkluzywne i przesiąknięte stereotypami - dopóty AI, która ma odzwierciedlać rzeczywistość, będzie pogłębiała nierówności - zauważa badaczka z ALK dr Anna Górska.

Dr Górska z Akademii Leona Koźmińskiego specjalizuje się w zagadnieniach dotyczących płci i różnorodności w organizacjach i na uczelniach. Razem z prof. Dariuszem Jemielniakiem przeprowadziła niedawno badanie, które wykazało, że wszystkie popularne generatory AI powielają uprzedzenia dotyczące płci w kontekście różnych zawodów i miejsc pracy.

Teraz, w rozmowie z Nauką w Polsce, naukowczyni opowiada, że płeć jest zaledwie jednym z wielu obszarów, w których AI powiela uprzedzenia i nierówności. Równie widoczne są stereotypy dotyczące koloru skóry, pochodzenia, wieku czy kultury.

PRZECIĘTNY CZŁOWIEK WEGŁUG AI TO BIAŁY MĘŻCZYZNA

"Dość banalnym przykładem, ale wyjaśniającym bardzo dużo, jest np. to, w jaki sposób generatory obrazu przedstawiają pannę młodą - mówi dr Górska. - Kiedy poprosimy jeden z nich, aby wygenerował nam jej obraz, najprawdopodobniej zobaczymy kobietę w białej, długiej sukni ślubnej, czyli model wpisujący się całkowicie w kulturę zachodnią. Tymczasem przecież w wielu krajach i kulturach, takich jak Indie, Chiny czy Pakistan, tradycyjna suknia ślubna wcale nie jest biała, ale bogato zdobiona, czerwona. Odwrotnie działa to tak samo: kiedy pokażemy generatorowi czerwoną, indyjską suknię ślubną, on odpowie, że jest to przebranie albo kostium".

"To pokazuje, jak mocno anglosaskocentryczne są dostępne generatory. To, co jest związane z kulturą Zachodu, jest normą, a wszystko inne już nie" - zaznacza.

Jej kolejne badanie, również przeprowadzone we współpracy z prof. Jemielniakiem, polegało na proszeniu generatorów obrazów AI o pokazanie przedstawiciela czterech najbardziej prestiżowych zawodów: prawnika, lekarza, naukowca i inżyniera. Jak wyjaśnia dr Górska, prompty były formułowane w języku angielskim, dlatego nazwy tych profesji nie miały zabarwienia płciowego. Jak się okazało - poza tym, że w przeważającej (blisko 80 proc.) większości przypadków osoby na wygenerowanych obrazach były mężczyznami, to dodatkowo były białe (70 proc.).

"Doskonale wiemy, że na świecie osoby białe wcale nie stanowią większości - mówi badaczka z ALK. - Ale domyślny obraz człowieka według sztucznej inteligencji jest właśnie taki: biały mężczyzna z Europy lub USA. Dzieje się tak dlatego, że AI jest tworzona przez białych mężczyzn z tych właśnie obszarów".

Biały mężczyzna u władzy jest głęboko zakorzeniony w naszej kulturze, świadomości, w mediach. „I takie dane trafiają też do sztucznej inteligencji. Ona ma odzwierciedlać naszą rzeczywistość, a że rzeczywistość jest taka, jaka jest - AI powiela nierówności, którymi jest +karmiona+” - mówi PAP dr Anna Górska.

Stereotypowe działanie AI dobrze widać także na przykładzie dużych firm korzystających z jej algorytmów do zatrudniania pracowników. Jak opowiada badaczka, rekruterzy jednej z korporacji wykorzystywali je do analizy CV kandydatów. Algorytmy automatycznie uznawały imiona brzmiące europejsko jako bardziej przyjazne, a afroamerykańskie jako nieprzyjazne.

Inny algorytm, który miał ułatwić pracę rekruterom, automatycznie faworyzował osoby białe i proponował im stanowiska biurowe, niezależnie od tego, do jakiej pracy aplikowali. Za to osoby pochodzenia latynoskiego kierował do pracy na magazynie, także nie biorąc pod uwagę ich kompetencji ani funkcji, o jaką się ubiegali. "Takie przekłady można długo mnożyć" - stwierdza dr. Górska.

"Jako ludzie uważamy, że takie algorytmy są neutralne, obiektywne i podejmują decyzję wyłącznie na podstawie rzeczowych przesłanek - tłumaczy. - A wcale tak nie jest. Jeżeli w danej firmie wśród pracowników już wcześniej były wyraźne podziały, to automatycznie sztuczna inteligencja kolejne osoby będzie przydzielała tam, gdzie najlepiej pasują. A gdzie według niej pasują? Tam, gdzie w tej chwili dana grupa (np. biali czy czarni, mężczyźni czy kobiety) dominuje. Czyli będzie powielać już funkcjonujące w tych organizacjach nierówności".

Zdaniem naukowczyni nie są to przypadki odosobnione, ale bardzo powszechne zjawisko. "Niepokojące jest to, że rekruterzy nie zdają sobie z tego sprawy i myślą, że narzędzia oparte na AI są obiektywne. A nie są w takim samym stopniu co ludzie" - mówi.

AI WYMAGA ODGÓRNYCH REGULACJI 

Nasza rzeczywistość nie jest sprawiedliwa. Nie ma w niej równości płci, koloru skóry, pochodzenia. Wiele badań pokazuje, że kobiety i osoby niebiałoskóre nie awansują tak często, jak biali mężczyźni. Niestety prężnie rozwijająca się w ostatnich latach sztuczna inteligencja jeszcze mocniej pogłębia wszystkie te podziały. Jest bowiem zaprogramowana tak, aby spełniać oczekiwania użytkownika.

"To musi zostać zmienione. Trzeba lepiej programować sztuczną inteligencję i wprowadzić odpowiednie regulacje" - uważa ekspertka.

Jednak i to - w jej opinii - należy robić bardzo rozsądnie, czego uczy przykład googlowskiego modelu AI o nazwie Gemini. "W pewnym momencie w ogóle przestał on generować obrazy białych osób - opowiada dr Górska. - Po prostu nie był w stanie tego robić, sugerując, że wszystkie takie treści są rasistowskie. Jest to przesada w drugą stronę i na to także trzeba bardzo uważać. Ale jakieś odgórne regulacje są konieczne. Takie, które zabezpieczą przed powielaniem szkodliwych schematów. Musimy nauczyć się programować sztuczna inteligencję w bardziej świadomy sposób; tak, żeby była mądrzejsza niż my".

Czy takie działanie są już podejmowane? Jak mówi dr Górska są; nawet wspomniane Gemini jest tego przykładem. "Proszę sobie przypomnieć, jak wielkie problemy z nierównością miała wyszukiwarka Google jeszcze kilka lat temu; była wręcz dyskryminująca. Kiedy np. wpisywało się w nią angielski termin CEO, oznaczający prezesa, nie było szansy zobaczyć w wynikach obrazu innego niż biały mężczyzna w średnim wieku. Hasło +Michelle Obama+ dawało w wynikach zdjęcia goryli. Firma wyciągnęła z tego wnioski, dlatego starała się ulepszyć swój model, aby zapobiegać takim sytuacjom. Akurat to, o czym mówiłam przed chwilą, skończyło się to dość niefortunnie, ale widać, że chęci były" - opowiada.

"Ważne są szybkie działania, ale wypośrodkowane i rozsądne" - podsumowuje.

Na razie to, czy firmy zajmujące się sztuczną inteligencją biorą pod uwagę tego typu kwestie, zależy wyłącznie od nich samych. Brakuje odgórnych regulacji, które mówiłyby o tym, że AI należy programować w sposób zapewniający jej inkluzywność i sprawiedliwość.

"Miejmy nadzieję, że pierwszym krokiem w dobrą stronę będzie wprowadzony kilka dni temu w Europie +AI Act+. Zdecydowanie nadszedł już czas, aby pilniej monitorować tę branżę. Niestety jest to wyjątkowo skomplikowane, ponieważ technologia AI tak szybko się zmienia, że trudno będzie nadążyć z regulacjami, które byłyby aktualne" - mówi badaczka. (PAP)

Nauka w Polsce, Katarzyna Czechowicz

kap/ zan/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Ekspert: świadome podróżowanie stanowi niewielki procent naszej turystyki

  • Adobe Stock

    Psycholog: dobra relacja z ojcem to fundament na całe życie

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera