Koja od ovih fotografija je lažna: Vaš mozak zapravo zna odgovor pre vas 1Foto: Michoel L. Moshel/Vision Research

Takozvani dipfejk video snimci i slike ljudi koje generiše veštačka inteligencija postaju sve realističniji. To ih čini savršenim oružjem za širenje dezinformacija i prevare.

Ali dok nas dipfejkovi mogu svesno prevariti, novi dokazi sugerišu da naš mozak zna bolje. Lažni portreti izazivaju aktiviranje različitih signala, pokazalo je skeniranje mozga, prema studiji objavljenoj u naučnom časopisu Vižn Risrč.

Iako možda ne možemo svesno da uočimo lažni lažnjak (za čitaoce, lice sa desne strane je lažno), naši neuroni su pouzdaniji.

Vaš mozak vidi razliku između dve slike. To još uvek ne možete da vidite, Tomas Karlson sa Fakulteta za psihologiju Univerziteta u Sidneju i koautor studije.

Naučnici su zamolili volontere da pogledaju seriju od nekoliko stotina fotografija, neke stvarne, a neke lažne, koje generiše GAN (Generative Adversarial Netvork), što je uobičajen način za pravljenje dipfejk, piše Dnevnik.hr

Jedna grupa od 200 učesnika je zamoljena da pogodi koje su slike prave, a koje lažne pritiskom na dugme. Druga grupa od 22 učesnika nije pogodila, ali je podvrgnuta elektroencefalografiji (EEG) dok je gledala slike. EEG je pokazao jasne signale kada su učesnici gledali duboke lažne slike u poređenju sa stvarnim slikama.

Mozak reaguje drugačije nego kada vidi pravu sliku. Teško je shvatiti na šta se tačno odnosi, jer sve što zaista možete da vidite je da je drugačije, tako da ćemo morati da uradimo više istraživanja da bismo shvatili šta je to, kaže Karlson.

EEG skenovi nisu bili pouzdani: mogli su da otkriju samo duboke falsifikata u 54 odsto slučajeva. Ali to je znatno bolje od učesnika koji su svjesno pogađali i samo 37 posto vremena pronašli dipfejk, što je gore nego da su pogodili, recimo, bacanjem novčića.

Trenutni dipfejkovi imaju mane

Činjenica da mozak može otkriti dipfejk znači da  trenutni dipfejkovi imaju mane. Ako možemo da naučimo kako mozak detektuje dipfejkovi, mogli bismo da koristimo ove informacije za kreiranje algoritama za označavanje potencijalnih dippfejkovi na digitalnim platformama kao što su Fejsbuk i Tviter, kaže Karlson.

Ovo znanje bi se tada takođe moglo koristiti za sprečavanje prevare i krađe.

Kacige sa EEG-om mogle su da budu od pomoći u sprečavanju nedavnih pljački banaka i slučajeva korporativnih prevara u Dubaiju i Ujedinjenom Kraljevstvu, gde su prevaranti koristili kloniranu glasovnu tehnologiju da ukradu desetine miliona dolara. U ovim slučajevima, finansijsko osoblje je mislilo da čuje glas klijenta ili saradnika od poverenja i prevareno je da izvrši transfer sredstava, kaže Karlson.

(Međutim) nema garancija

Ali sve navedeno nikako nije garancija. Naučnici u svom radu ističu da su, čak i dok su radili istraživanje, GAN-ovi napredovali i generisali bolje duboke lažne slike od onih koje su koristili u svojoj studiji. Moguće je da kada algoritmi budu postavljeni, dipfejkeri će samo smisliti nove načine da ih zaobiđu.

Uprkos tome, dipfejkeri uvek generiše računar koji ima „predstavu“ o tome šta je lice. Sve dok generiše ove stvari iz ove ‘ideje’, možda postoji i najmanja stvar pogrešno. Ovog puta je pitanje da se otkrije šta nije u redu sa tim, zaključuje Karlson.

Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu. Pretplatite se na PDF izdanje lista Danas.

Komentari