Nova studija je potvrdila da je Čat-GPT- 3 , novi virtuelni sagovornik sa veštačkom inteligencijom, sposoban da širi onlajn dezinformacije brže i ubedljivije od ljudi. Ovakve situacije sada, više nego ikada ranije, otvaraju pitanje koliko je efikasna kontrola nad informacijama i da li postoje državni mehanizmi kao alati za rešavanje problematičnih situacija?
Istraživanje, koje je nedavno objavljeno u recenziranom časopisu Science Advances, imalo je za cilj da identifikuje neke od glavnih pretnji koje napredni generatori teksta predstavljaju u digitalnom svetu, posebno u kontekstu dezinformacija i lažnih vesti na društvenim medijima, piše Demostat.
„Naša istraživačka grupa je posvećena razumevanju uticaja naučnih dezinformacija i obezbeđivanju bezbednog angažovanja pojedinaca sa informacijama“, rekao je za Psypost autor studije Federiko Germani, istraživač na Institutu za biomedicinsku etiku i istoriju medicine.
Prema rečima autora studije, glavni cilj je ublažavanje rizika povezanih sa lažnim informacijama o individualnom i javom zdravlju.
„Pojava modela sa veštačkom inteligencijom kao što je GPT-3 podstakla je naše interesovanje za istraživanje kako veštačka inteligencija utiče na informacioni pejzaž i kako ljudi percipiraju informacije i dezinformacije i komuniciraju sa njima“, rekao je Germani.
GPT-3 je skraćenica od Generative Pre-trained Transformer 3, to je treća verzija programa koju je objavio OpenAI, a prvi model je izašao 2018 . Među bezbroj drugih veština obrade jezika, program je u stanju da oponaša stil pisanja onlajn razgovora, objašnjava studija.
Koja su područja najsklona lažima?
Istraživači su istražili 11 tema za koje su smatrali da su podložne dezinformacijama – uključujući klimatske promene, Kovid -19, bezbednost vakcina i 5G tehnologiju. Da bi to uradili, autori studije su prikupili tvitove generisane veštačkom inteligencijom, koji se sastoje od lažnih i istinitih informacija, zajedno sa primerima stvarnih tvitova koji se odnose na iste teme.
Prema studiji, istraživači su zatim koristili ekspertsku analizu da bi utvrdili da li tvitovi generisani od strane veštačke inteligencije ili ljudi sadrže dezinformacije i uspostavili podskup tvitova za svaku kategoriju na osnovu procena.
Istraživači su zatim sproveli anketu koristeći tvitove – od ispitanika je zatraženo da utvrde da li zamagljivanja sadrže tačne informacije ili ne i da li ih je napisala ljudska ili veštačka inteligencija. Eksperiment je pokazao da su ispitanici bolje mogli da otkriju dezinformacije u „organski lažnim tvitovima“ – što znači tvitovima koje su napisali ljudi, ali koji i dalje sadrže lažne informacije – nego u netačnim izjavama „sintetički lažnih “ tvitova, koje je napisao GPT-3.
Studija dalje navodi da su ispitanici takođe bili manje sposobni da otkriju lažne informacije od strane veštačke inteligencije nego od ljudi.
„Učesnici su prepoznali organske lažne tvitove sa najvećom efikasnošću, bolje od sintetičkih lažnih tvitova. Slično tome, veća je verovatnoća da će ispravno prepoznati sintetičke istinite tvitove nego organske istinite tvitove, objašnjava studija.
Istraživanje ,takođe, potvrđuje da je ljudima teže da procene tačne izjave u poređenju sa dezinformacijama, i da tekst koji generiše GPT-3 „ne samo da je efikasniji u informisanju i dezinformisanju ljudi, već to čini efikasnije, za kraće vreme.“
Da li veštačka inteligencija potiskuje novinarsku profesiju?
Stojančo Tudžarski , šef tima za nauku o podacima u Inovejšn DOOEL, u izjavi domaćim medijima na ovu temu kaže da su automatski generatori teksta Četdžipiti i napredniji Džipiti-4 u stanju da kreiraju bilo koji tekst koji se ne može prepoznati da li je napisan od strane čoveka ili mašine, između ostalog i zbog toga što sa sadašnjim stepenom razvoja veštačke inteligencije, mašine su u stanju da izuzetno uspešno imitiraju ljudske pisane tekstove.
– To novinarsku profesiju stavlja u ne baš zavidnu poziciju. Svako, uz pomoć pravilno tempiranih upita, može dobiti prosečan tekst o bilo kojoj temi, uključujući i novinske članke. Dakle, suočeni smo sa realnom mogućnošću hiperprodukcije tekstova, u proseku, istog kvaliteta kao što su do sada pisali novinari, kaže Tudžarski.
Tudžarski naglašava da je linija između dezinformacija i automatski generisanog teksta tanka i da se dezinformacije ne mogu dovesti u korelaciju sa veštačkom inteligencijom.
– Ljudi su ti koji stvaraju dezinformacije, sa ili bez VI/Čatdžipiti-a. Po mom mišljenju, pravi izazov za novinare, da bi ostali relevantni kao profesionalci, jeste kako biti bolji od Čatdžipitija. A, po definiciji, mogu samo ako unesu stvarnu kreativnost u svoje pisanje jer tekstovi koje je napravio Četdžipiti su , u matematičkom smislu, ništa drugo do tekstovi koje bi napisalo prosečno ljudsko biće, uzimajući u obzir sve ljudske tekstove kojima je obučen Četdžipiti . Ili, prema rečima Noama Čomskog, „Čatdžipiti nije ništa drugo do veoma sofisticirana mašina za stvaranje masovnog plagijata, i ako neko danas zna o čemu govori na ovu temu, to je on“, kaže Tudžarski.
Razvoj veštačke inteligencije i njen uticaj na lažne vesti:
Uspon veštačke inteligencije je napravio revoluciju u različitim industrijama, uključujući medije i širenje informacija. Nažalost, ova tehnologija je takođe korišćena za manipulaciju informacijama i ovekovečenje lažnih vesti. Alati vođeni veštačkom inteligencijom sada mogu da generišu članke, slike i video zapise realnog zvuka koji se gotovo ne razlikuju od stvarnog sadržaja. Ovo omogućava zlonamernim akterima da kreiraju ubedljive narative koji su u stanju da zavaraju čak i pronicljive potrošače digitalnih medija.
Primeri alata za manipulaciju:
Deepfakes: Deepfake tehnologija sa veštačkom inteligencijom može da manipuliše video zapisima tako što stavlja lice jedne osobe na telo druge, efektivno stvarajući stvarni, ali potpuno izmišljeni sadržaj.
Generatori teksta: Generatori teksta vođeni veštačkom inteligencijom mogu da proizvedu koherentne i kontekstualno relevantne članke, gde čak ni novinari na prvo čitanje ne mogu da razlikuju stvarne i lažne vesti.
Uređivanje slika: Napredni alati za uređivanje slika zasnovani na veštačkoj inteligenciji mogu da izmene vizuelni prikaz do te mere da bi čak i stručnjaci mogli da se bore da uoče da li je munipulisano slikom .
Borba protiv lažnih vesti i alati za verifikaciju:
Kako pretnja od lažnih vesti i dalje raste, pojavili su se različiti alati i tehnologije kako bi se suprotstavili njihovom uticaju i potvrdili autentičnost digitalnih medija:
Veb – stranice za proveru činjenica: Platforme kao što su Snopes, FactCheck.org i PolitiFact su posvećene proveravanju i razotkrivanju lažnih informacija, ali mnoge od ovih alatki zasnovanih na vebu su fokusirane na američko tržište.
Obrnuta pretraga slika i video zapisa: Alati kao što su Google Reverse Image Search i InVID mogu pomoći korisnicima da identifikuju poreklo slika i video zapisa, pomažući da se otkrije izmanipulisani sadržaj. Edukacija o medijskoj pismenosti: Promovisanje medijske pismenosti i veština kritičkog razmišljanja pomaže pojedincima da postanu pronicljiviji potrošači informacija, čineći ih manje podložnim lažnim vestima.
Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu. Pretplatite se na PDF izdanje lista Danas.