Naukowcy wyszkolili sztuczną inteligencję (SI) tak, aby wykrywała nadciśnienie tętnicze na podstawie analizy głosu danej osoby. Światowa Organizacja Zdrowia nazywa tę przypadłość „cichym zabójcą”.
Przygotowanie tłumaczeń polsko-angielskich, kategoryzowanie treści, przeszukiwanie dokumentów i wyciąganie z nich istotnych informacji - polskie przedsiębiorstwa mogą wiele zyskać, jeśli umiejętnie wesprą się Bielikiem - uważają jego twórcy. Bielik to bezpłatny otwarty model językowy wytrenowany na języku polskim.
Znany analityk sztucznej inteligencji, w swojej nowej książce twierdzi, że przyszła AI będzie inteligentniejsza od ludzi. Stawia jednak jeden, naprawdę trudny do spełnienia warunek – wcześniejsze dokładne poznanie pracy mózgu.
Komisja Europejska w imieniu UE podpisała w czwartek pierwszy na świecie prawnie wiążący międzynarodowy traktat o sztucznej inteligencji (AI). Jego kształt w maju wynegocjowało 57 krajów, w tym Stany Zjednoczone i Wielka Brytania.
Badania nad reprogramowaniem komórek z wykorzystaniem AI poprowadzi dr Andrzej Mizera z IDEAS NCBR. Międzynarodowy zespół naukowców z Polski i Luksemburga opracuje zaawansowane metody obliczeniowe, które w przyszłości mogą przyczynić się do leczenia m. in. choroby Parkinsona.
Większość firm z sektora life sciences skupi się na wykorzystaniu potencjału generatywnej sztucznej inteligencji, która - zdaniem specjalistów - może być jedną z najbardziej przełomowych transformacji technologicznych od dekad - poinformowano w publikacji opisującej raport firmy Deloitte.
Modele językowe AI generują decyzje nacechowane ukrytym rasizmem. To odkrycie budzi poważne obawy co do uczciwości i bezpieczeństwa stosowania technologii językowych w podejmowaniu decyzji – ostrzegają naukowcy na łamach „Nature”.
Udostępniono nową wersję Bielika. To ogromny model językowy o otwartym kodzie źródłowym, który uczy się generowania tekstów na podstawie ogromnej bazy polskich tekstów. W szkoleniu Bielika wykorzystano zasoby obliczeniowe dwóch najszybszych superkomputerów w Polsce - Heliosa i Atheny przy krakowskim AGH.
ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.