Modele AI współpracują sprawniej niż ludzie

Fot. Adobe Stock
Fot. Adobe Stock

Modele sztucznej inteligencji (AI) mogą współpracować w znacznie większych grupach niż ludzie – informuje serwis „arXiv”.

Uważa się, że ludzie mogą mieć trudności z utrzymaniem relacji roboczych, gdy ich grupa społeczna staje się zbyt duża - maksimum to około 150 osób. Liczba ta znana jest jako liczba Dunbara, ale wydaje się, że modele AI mogą ją przewyższyć i osiągnąć konsensus w znacznie większych grupach. Sugeruje, to że tysiące AI mogłyby współpracować, aby rozwiązywać problemy zbyt trudne dla człowieka.

W latach 90. XX wieku antropolog Robin Dunbar zauważył związek między rozmiarem mózgu naczelnych a typową wielkością ich grupy społecznej. W przypadku ludzi jest to około 150 osób, choć dokładna liczba zależy od konkretnej osoby.

Teraz naukowcy zastosowali ideę liczby Dunbara do modeli AI. Jak się okazało, AI o największych „mózgach” potrafią koordynować działania w większych grupach - nawet 1000 modeli.

Giordano De Marzo z Uniwersytetu w Konstancji w Niemczech i jego współpracownicy zastanawiali się, czy modele językowe takie jak ChatGPT zachowują się jak ludzie „rozmawiając” ze sobą.

Aby to zbadać, naukowcy uruchomili wiele kopii tego samego modelu AI jednocześnie, przypisując każdej losową opinię na temat mającego dwa rozwiązania problemu bez oczywistej odpowiedzi, takiego jak to, po której stronie drogi powinno się jeździć w zupełnie nowym kraju.

Na każdym etapie eksperymentu naukowcy wybierali losowo jedną kopię i informowali ją, jaką opinię podzielają wszystkie inne modele i dlaczego, a następnie pytali, czy chciałaby zaktualizować swoją. Autorzy twierdzą, że to sytuacja analogiczna do sytuacji ludzi próbujących osiągnąć konsensus w luźnych, niezorganizowanych grupach społecznych.

W teście z 50 kopiami Claude 3 Opus lub GPT-4 Turbo, dwoma zaawansowanymi modelami AI, zespół odkrył, że grupa za każdym razem osiągała konsensus. Tymczasem kopie mniejszych i mniej wydajnych modeli, takich jak Claude 3 Haiku i GPT-3.5 Turbo, nigdy nie osiągnęły konsensusu.

Wyniki pokazują, że chociaż modele w każdym teście są identyczne, nie ma „wrodzonego” mechanizmu, który pozwalałby na osiągnięcie konsensusu, przynajmniej dopóki nie staną się wystarczająco zdolne.

Następnie autorzy próbowali znaleźć górny limit zdolności każdego modelu do osiągnięcia konsensusu – czyli jego własną liczbę Dunbara. W przypadku niektórych modeli, przy pewnej wielkości grupy, czas potrzebny na osiągnięcie konsensusu zaczął rosnąć wykładniczo, a Llama 3 70b zakończył z liczbą Dunbara wynoszącą 50. Jednak w przypadku innych modeli, takich jak GPT-4 Turbo, zdolność ta nigdy nie ulegała ograniczeniu, nawet gdy współpracowało 1000 kopii.

Jak wskazują autorzy, kluczowym ograniczeniem jest pamięć – człowiek nie może zapamiętać, co mówiły mu tysiące ludzi (ani kto co mówił). AI może, o ile ma odpowiednio dużo pamięci.

Niektórzy eksperci wyrażają jednak wątpliwości, czy uzyskane przez takie zgromadzenie AI rozwiązania zawsze będą dobre, zwłaszcza jeśli zastosować wiele identycznych modeli, co ogranicza różnorodność od zawsze występującą w przypadku organizmów żywych. Jednakowym modelom łatwiej się „dogadać", co nie znaczy, że mają rację.(PAP)

Paweł Wernicki

pmw/ bar/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Najczęściej cytowany artykuł dotyczący Covid-19 wycofany po czteroletnim sporze

  • Fot. Adobe Stock

    Roślinne napoje nie tak odżywcze, jak się wydają

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera