Fot. Adobe Stock

Powstał program do sprawdzania, czy rozmawialiśmy online z prawdziwą osobą

Prototypowy program do sprawdzania, czy przez kamerę online rozmawialiśmy z prawdziwą osobą, a nie deepfejkiem, opracowali naukowcy z ośrodka badawczo-rozwojowego IDEAS NCBR. Rozwiązanie ma służyć walce z oszustwami i ochronie wizerunku w sieci.

  • Źródło: Adobe Stock
    Technologia

    NASK: rośnie liczba cyberprzestępstw z wykorzystaniem AI

    W internecie pojawia się coraz więcej przestępstw typu deepfake - ostrzegają eksperci z instytutu badań Naukowej i Akademickiej Sieci Komputerowej. Technika oszustw polega na wykorzystaniu głosu i twarzy znanych osób, obrobionych przy pomocy sztucznej inteligencji.

Najpopularniejsze

  • Fot. Adobe Stock

    Współtwórca Bielika: w modelach AI jest obecna cenzura, nie ufajmy im ślepo

  • Polskie „nanokwiaty” pomogą w leczeniu groźnej choroby kości

  • Prof. Grewiński: młodzi są coraz bardziej samotni

  • W piątek 20 marca przywitamy astronomiczną wiosnę

  • Raport: relacje młodych z technologią są dużo bardziej złożone, niż wynikałoby to z debaty publicznej

  • Fot. Adobe Stock

    Sztuczna inteligencja zubaża ludzką komunikację i myślenie

  • Pomidory, marchew i sałata magazynują farmaceutyki w liściach

  • Powstała nowa aplikacja pomocna w problemach z przedwczesnym wytryskiem

  • Odżywki przedtreningowe mogą prowadzić do niebezpiecznego niedoboru snu

  • Składnik morwy ułatwia regenerację mieliny

Fot. Adobe Stock

Naukowcy sprawdzili, skąd się biorą błędne lub agresywne odpowiedzi chatbotów

Dlaczego duże modele językowe udzielają czasem błędnych, szkodliwych lub agresywnych odpowiedzi? Nawet ich bardzo wąskie i pozornie kontrolowane modyfikacje mogą prowadzić do nieprzewidzianych skutków ubocznych - wynika z publikacji w Nature. Jedną z jej autorek jest badaczka Politechniki Warszawskiej.

newsletter

Zapraszamy do zapisania się do naszego newslettera