Zespół naukowców pod kierownictwem Macieja Behnkego z UAM stworzył Library of AI-Generated Affective Images. To pierwsza biblioteka generowanych przez AI obrazów afektywnych, czyli takich, które pomagają psychologom wywoływać emocje u badanych. Forma i kontekst obrazów mogą być dostosowywane kulturowo.
Jak przekazał Uniwersytet im. Adama Mickiewicza (UAM) w Poznaniu, psychologowie od lat korzystają z tych samych zestawów obrazów – jak warczący pies, rozbite auto, czy uśmiechnięte dziecko - by badać emocje. Problemem jednak było, że materiały te powstały dekady temu i coraz częściej wyglądają archaicznie — zarówno technologicznie, jak i kulturowo. Ponadto, obrazy tworzone z myślą o jednym kręgu kulturowym mogą wywoływać zupełnie inne reakcje u odbiorców z innych części świata.
Zespół Macieja Behnkego z UAM odpowiedział na ten problem, tworząc Library of AI-Generated Affective Images (LAI-GAI) — pierwszą bibliotekę nowoczesnych, generowanych przez sztuczną inteligencję obrazów afektywnych, których forma i kontekst mogą być dostosowywane kulturowo.
Jak podkreślono w komunikacie, założeniem projektu, opisanego na łamach „Advances in Methods and Practices in Psychological Science”, było to, czy tę samą technologię, która tworzy surrealistyczne grafiki i deepfejki, można okiełznać na potrzeby rzetelnej nauki. Aby to sprawdzić, badacze opracowali procedurę typu human-in-the-loop, czyli taką, w której człowiek pozostaje niezbędnym ogniwem całego procesu.
„Nie polegało to na prostym wpisaniu do AI polecenia w stylu: narysuj obraz, który mnie zasmuci. Zamiast tego badacze sięgnęli po stare, wcześniej zwalidowane obrazy z istniejących baz i wykorzystali duże modele językowe, takie jak ChatGPT, do tworzenia szczegółowych opisów przedstawionych scen. Następnie opisy te trafiały do generatorów obrazów, takich jak Midjourney, które tworzyły nowoczesne, wysokorozdzielcze odpowiedniki dawnych bodźców” – podkreślono.
W rezultacie powstało ponad 840 obrazów w 12 kategoriach emocji, które – jak pokazały testy – wywołują reakcje emocjonalne równie silne jak klasyczne fotografie.
„Kluczową innowacją LAI GAI jest kulturowa adaptowalność. Obrazy przygotowano w sześciu kontekstach kulturowych — m.in. afrykańskim, arabskim, azjatyckim czy latynoamerykańskim — a eksperci z tych regionów ręcznie korygowali błędy i stereotypy generowane przez modele AI. Aż jedna trzecia grafik wymagała poprawek, co potwierdziło, jak ważny jest ludzki nadzór” – wskazano w komunikacie.
Podkreślono również, że badania pokazują także, że obrazy dopasowane kulturowo skuteczniej wywołują zamierzone emocje, a modyfikacja wieku czy płci postaci nie zmniejsza ich efektywności.
„To otwiera drogę do nowych metod eksperymentalnych, w których materiały są dynamicznie tworzone pod konkretne hipotezy, grupy uczestników czy potrzeby badawcze” – wskazano.
Uniwersytet im. Adama Mickiewicza w Poznaniu przekazał, że projekt LAI GAI pokazuje, że AI nie zastępuje naukowców, a staje się ich narzędziem. „Dzięki połączeniu sztucznej inteligencji i ludzkiego osądu psychologia może odświeżyć swoje podstawowe »atomy« badawcze: obrazy, które reprezentują ludzkie doświadczenia w eksperymentach” – podkreślono.
Szersze informacje o projekcie można znaleźć na stronie internetowej. (PAP)
ajw/ agt/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.