Sztuczna inteligencja powiela uprzedzenia i stereotypy dotyczące płci

Fot. Adobe Stock
Fot. Adobe Stock

Powszechne przekonanie, że algorytmy i sztuczna inteligencja są całkowicie obiektywne, jest błędne. Technologia zawsze odzwierciedlała istniejące w społeczeństwach uprzedzenia i stereotypy, ponieważ bazy danych, na których się opiera i uczy, optymalizują oraz wdrażają ludzie - podkreślają naukowcy.

Badacze z Akademii Leona Koźmińskiego (ALK) w Warszawie, dr Anna Górska i prof. Dariusz Jemielniak, na łamach „Feminist Media Studies” (https://doi.org/10.1080/14680777.2023.2263659), opisali wyniki swoich badań dotyczących generatorów AI uprzedzonych ze względu na płeć, w kontekście różnych zawodów i miejsc pracy. Odkryli, że sztuczna inteligencja nie tylko nie jest wolna od uprzedzeń, ale też bardzo często je powiela, co przejawia się np. w generowanych przez nią obrazach profesjonalistów - mężczyzn i kobiet - w dziedzinie prawa, medycyny, inżynierii i badań naukowych.

„Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości. Problem pokazuje zatem, że trzeba być bardzo ostrożnym w doborze danych” - zauważa prof. Dariusz Jemielniak, cytowany w komunikacie ALK.

Jak zauważyli badacze, w generatorach AI występuje zdecydowana nadreprezentacja mężczyzn. Świat danych nie został stworzony z myślą o kobietach. Tymczasem twórcy algorytmów importują do swoich modeli różnorodne dane, spośród których bardzo wiele nieświadomie wspiera seksizm, rasizm i niepotwierdzone przekonania merytokratyczne. Ugruntowuje to istniejące nierówności i segregację płciową - np. w branżach takich jak prawo, medycyna, inżynieria i nauka.

„Kto jest programistą w branży IT? Zazwyczaj są to mężczyźni. Mówimy o całej kulturze 'brogrammer' (slangowe określenie stereotypowego programisty mężczyzny - przyp. PAP) wśród programistów, która jest mało włączająca. Prawdopodobnie ich własne uprzedzenia, które tworzą w sposób świadomy czy nieświadomy, są później odzwierciedlone w algorytmach" - mówi cytowana w informacji prasowej dr Anna Górska, specjalizująca się w zagadnieniach płci i różnorodności w organizacjach i na uczelniach.

Badanie zespołu z ALK polegało na porównaniu dziewięciu popularnych generatorów obrazów AI i sprawdzeniu, jak przedstawiają one wizerunki osób w czterech prestiżowych zawodach (wg Global Teacher Status Index), takich jak: prawnik, lekarz, inżynier i naukowiec. Łącznie sztuczna inteligencja stworzyła w ramach badania 99 grafik, które autorzy dokładnie przeanalizowali z udziałem respondentów.

„Wpisaliśmy prompty w języku angielskim. Nie zadawaliśmy ich po polsku, ponieważ chcieliśmy zachować neutralność płciową” - opowiada dr Górka. Jednak, jak dodaje, same wyniki nie były już płciowo neutralne.

Wygenerowanym obrazom przyjrzało się następnie 120 respondentów, w wieku od 18 do 24 lat. Ich zadaniem było ocenienie, jaka płeć widnieje na danym obrazie. Mieli do wyboru cztery opcje: mężczyzna, kobieta, niejednoznaczne i nieludzkie. Zawód, dla którego AI stworzyło dany obraz, nie był im znany.

Jak się okazało, w wykreowanych przez sztuczną inteligencję zdjęciach widoczne były istotne uprzedzenia płciowe. Mężczyźni byli reprezentowani na 76 proc. obrazach, a kobiety jedynie na 8 proc. Najmniejszą reprezentację kobiet zaobserwowano wśród lekarzy - zaledwie 7 proc. „Co jest zaskakujące, bo według danych OECD z 2021 r., kobiety (…) stanowią niemal połowę osób pracujących w tym zawodzie" - komentuje dr Górska. Wśród inżynierów i naukowców kobiet było po 8 proc., a wśród prawników - 9 proc.

Dr Górska podkreśla, że generowane przez AI obrazy wpływają na opinię publiczną i kształtowanie rzeczywistości społecznej. Dlatego, jeżeli chcemy walczyć z uprzedzeniami, zmiany powinny dotknąć także tej technologii. Zdaniem naukowczyni nie mogą się one jednak ograniczać wyłącznie do reprezentacji i inkluzywności, ale także podziału zadań między mężczyzn a kobiety w procesach projektowania i podejmowania decyzji na wyższych szczeblach.

„Dlaczego tak ważna jest reprezentacja kobiet na różnych szczeblach w organizacji, również wśród programistów? Sheryl Sandberg, była prezeska Facebooka, kiedy była w zaawansowanej ciąży, miała problemy, żeby dostać się z parkingu do biura. Poszła więc do swojej rady nadzorczej i powiedziała: 'Słuchajcie, musimy zrobić parkingi dla kobiet w ciąży'. Na co oni odpowiedzieli: 'Jasne, nie ma problemu. My o tym wcześniej nie pomyśleliśmy'. Właśnie dlatego tak ważne jest, żeby mieć kobiety na różnych szczeblach w instytucjach, bo dopóki kogoś nie dotyczy dany problem, to po prostu się o tym nie pomyśli. Gdyby w IT było więcej programistek, to reprezentacja byłaby bardziej równościowa” - uważa dr Górska.

Specjalistka wyjaśnia, że badane przez nią uprzedzenia płciowe w AI były zauważalne w zdecydowanej większości sprawdzanych generatorów. „Co niestety wpływa na to, w jaki sposób kobiety i mężczyźni są przedstawiani w różnych zawodach. Prowadzi to do normalizacji stereotypowych poglądów i wzmacniania istniejących nierówności płciowych - podkreśla.

W jej opinii nie powinno się tego tak zostawiać. Należy podnosić świadomość społeczną na temat bieżących problemów związanych z zamianą tekstu przez generatory obrazów AI i zachęcać twórców sztucznej inteligencji do rozwoju i projektowania bardziej włączających i sprawiedliwych technologii.

„Inaczej może nastąpić efekt samospełniającej się przepowiedni - piszą autorzy z ALK w podsumowaniu swoje publikacji. - Wpływając na postrzeganie płci i zawodu przez ludzi, modele AI mogą powodować, że kobiety i mężczyźni rzadziej będą wybierać kariery postrzegane jako stereotypowo kobiece lub męskie. Może to skutkować pogłębiającym się cyklem nierówności płci".(PAP)

Katarzyna Czechowicz

kap/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Katowice, 14.11.2024. Minister funduszy i polityki regionalnej Katarzyna Pełczyńska-Nałęcz. PAP/Jarek Praszkiewicz

    Pełczyńska-Nałęcz: kolejna „Ścieżka SMART” będzie oceniana dwa razy szybciej

  • Wizualizacja projektu. Fot. materiały prasowe

    Badacze Politechniki Wrocławskiej opracowali wynalazek do budowy cegieł na Księżycu

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera