Veštačka inteligencija ulazi i u političku arenu 1Foto: Pixabay/Geralt

U aprilu 2023, nakon mnogo spekulacija, aktuelni predsednik SAD Džozef Bajden zvanično je pokrenuo svoju kampanju za reizbor, putem video najave.

Istog dana, Republikanska stranka odgovorila je svojim video spotom, u kojem je napala predsednika Bajdena.

U spotu predviđaju naredne četiri godine u SAD pod vođstvom predsednika Bajdena, sa većim kriminalom, otvorenim granicama, ratom sa Kinom i ekonomskim kolapsom.

Video spot, koji nosi naslov „Pobedite Bajdena”, dostupan je na Tviteru i Jutjubu, a prikazuje kako bi izgledalo da predsednik Bajden bude ponovo izabran 2024.

„Šta ako je najslabiji predsednik kojeg smo ikada imali ponovo izabran“, piše na ekranu dok se prikazuju slike napravljene pomoću AI.

AI generatori slika poput Stable Diffusion, DALL-E and MidJourney postali su izuzetno popularni u poslednjih nekoliko meseci, piše Demostat.

Korisnici mogu jednostavno da opišu šta bi želeli da vide koristeći tekst, a zatim AI generiše sliku.

Na prvi pogled, mnogi ljudi ne primećuju da je snimak kojim se kritikuje Bajden napravljen pomoću veštačke inteligencije, iako u gornjem levom uglu postoji disklejmer napisan sitnim slovima.

Na reklami se takođe vide sva obeležja veštački generisanih fotografija.

Za početak, lažni Bajden ima čudne ruke, kao što možete videti na slici ispod.

Lažni Bajden i lažna potpredsednica SAD Kamala Haris imaju i previše vidljivih zuba u vilici, što je još jedan siguran pokazatelj da su u pitanju veštački generisane slike.

Na prvi pogled ova reklama izgleda kao neobičan politički napad.

Međutim, iako je Republikanska partija bila transparentna u vezi sa upotrebom veštačke inteligencije, biračko telo je ipak uvučeno u novu eru političkog oglašavanja, u kojoj nema jasnih granica dokle se sme ići, ali posledice korišćenja dezinformacija i lažnih vesti mogu biti velike.

U januaru ove godine na Tviteru je kružio dipfejk video na kojem se činilo da predsednik Bajden najavljuje da je poslati Amerikance da se bore u Ukrajini.

Na snimku je u početku bio prikazan natpis koji ga opisuje kao maštu veštačke inteligencije, ali se nakon što je određeno vreme cirkulisao mrežama disklejmer izgubio.

Pokazalo se zapravo koliko je lako da i sadržaj koji je u startu bio definisan kao produkt AI nakon više deljenja postane dezinformacija.

Dipfejk snimci mogu dovesti do loših posledica ako se koriste u okviru geopoličke borbe ili kao oruđe u rukama terorističkih organizacija, ali isto tako mogu biti snažan alat i kad je reč o političkom oglašavanju.

U trci da se proizvedu najprovokativniji video snimci, sada kada imamo AI tehnologiju, verovatno neće biti granica.

Ipak, slučaj sa Bajdenom nije prvi takav slučaj zabeležen u američkim kampanjama.

Naime, istraživači su 2015. godine otkrili da je Mekejnova kampanja koristila fotografije tadašnjeg kandidata na predsedničkim izborima, Baraka Obame, u video snimcima koji su bili izmanipulisani tako da Obama ima tamniji ten.

U studiji o izbornom ciklusu za Kongres 2020. godine, izveštaj Centra za demokratiju i tehnologiju pokazuje je da su žene kandidata Afroamerikanaca duplo više mete kampanja lažnih i dezinformacija na mreži.

U Indiji, dipfejk tehnologija se koristi kao oružje protiv političarki i novinarki, a mnoge su prijavile da su njihove fotografije i video zapisi postavljeni na pornografske sajtove i da kruže internetom.

Slike generisane veštačkom inteligencijom i dipfejk snimci lako bi se mogli koristiti i za seksualizaciju političarki, kao i kreatora javnog mnjenja i drugih lidera, što može potkopati kredibilitet žena u kampanjama.

Takođe, sve realističniji lažni video snimci, audio snimci i fotografije mogli bi omogućiti političarima da poreknu odgovornost za bilo koji problematičan zvučni zapis ili video, tvrdeći da je gledaocima sve vreme trebalo da bude očigledno da su takvi materijali generisani veštačkom inteligencijom ili su lažni.

Platforme društvenih medija počele su da uvode nove politike za rešavanje problematike kad je u pitanju sadržaj generisan veštačkom inteligencijom, ali je izazovno integrisati ta nova pravila sa već postojećim kad je reč o političkom sadržaju.

Meta je zabranila dipfejk snimke na svojim platformama, ali ostaje nepokolebljiva u odluci da se činjenice koje iznose političari ne proveravaju.

TikTok je zabranio dipfejk snimke za privatne ličnosti, a kada je reč o javnim ličnostima zabranjeni su samo ako reklamiraju neke proizvode ili krše druge uslove te mreže, kao što je promovisanje govora mržnje.

Duboko lažiranje snimaka javnih ličnosti u svrhu „umetničkog ili obrazovnog sadržaja“ je ipak dozvoljeno.

Bajdenova administracija je u maju primila izvršne direktore tehnoloških kompanija u Beloj kući i objavila akcioni plan za „promovisanje odgovornih AI inovacija“.

U pododboru Senata za pravosuđe održano je saslušanje o potencijalnom nadzoru tehnologije veštačke inteligencije.

Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu. Pretplatite se na PDF izdanje lista Danas.

Komentari