Demokracija u eri deepfakea: Vodič kroz izbore

Ana Čelar; Josef Šlerka (Investigace.cz)

Alati koji koriste umjetnu inteligenciju sve su dostupniji pa raste i broj slučajeva njihove zloupotrebe. Deepfake, odnosno umjetno generiran sadržaj, već je postao moćno političko oružje.

Ilustracija kreirana s pomoću generativne UI: Midjourney

»Deepfake predstavlja najveću prijetnju izborima 48 sati prije njihova održavanja, kad novinari i stranke imaju vrlo malo vremena za provjeriti i opovrgnuti izrečene tvrdnje«, prognozirao je 2022. godine za GIJN Craig Silverman, nagrađivani autor i novinar te jedan od vodećih svjetskih stručnjaka za online dezinformacije.

Dvije godine kasnije, umjetna inteligencija i strojno učenje predvode digitalnu transformaciju društva, a umjetno generiran sadržaj sve je prisutniji – i sve ga je teže raspoznati. 

Tako se potkraj rujna prošle godine, samo nekoliko dana prije parlamentarnih izbora u Slovačkoj, društvenim mrežama počela širiti zanimljiva snimka. Na njoj je navodno Michal Šimečka, vođa liberalne stranke Progresivna Slovačka, s novinarkom dnevnog lista Denník N, Monikom Tódovom dogovarao namještanje izbora i kupovinu glasova.

A ove je godine, potkraj siječnja, automatizirani poziv američkog predsjednika Joea Bidena savjetovao biračima da ne izađu na stranačke predizbore u saveznoj državi New Hampshire, nego da »sačuvaju glas za izbore u studenom«. No pravilo koje bi zabranilo građanima da izađu na izbore ako su sudjelovali na predizborima – ne postoji. Kao ni razlog da se glas »čuva«.

Kako u Slovačkoj, tako i u New Hampshireu: u oba je slučaja bila riječ o umjetno generiranom sadržaju i pokušaju obmane birača. Ovakvi manipulativni manevri nisu zamijećeni uoči aktualnih parlamentarnih izbora u Hrvatskoj, no lažni videozapisi i snimke ni u ovoj državi nisu ništa novo.

  • Termin deepfake složenica je sintagme »deep learning«, koja označava duboko učenje, i pridjeva »fake«, odnosno lažan. Duboko učenje se pritom odnosi na specifičnu granu strojnog učenja u kojoj sustav uči samostalno, tako da analizira velike baze podataka – pri čemu oponaša način na koji ljudski mozak obrađuje informacije.


    To konkretno znači da deepfake-alati proučavaju velike količine podataka poput slika i videozapisa ljudi, kako bi naučili koje su točno karakteristike lica. Nakon što su pregledali dovoljnu količinu podatka, koriste ih kako bi generirali nove snimke koje izgledaju i zvuče vrlo realistično.


    Umjetno generiran sadržaj može biti toliko uvjerljiv da je teško odrediti njegovu autentičnost. To je posebno pogodno tlo za zloupotrebu deepfake-tehnologije na mnoge načine, uključujući izmišljanje lažnih vijesti, manipulaciju javnim mišljenjem i generiranje pornografskog sadržaja.

Prevaranti su prema nalazima Faktografa već koristili predsjednika Zorana Milanovića, voditelje Zorana Šprajca i Mojmiru Pastorčić, novinarku Ninu Kljenak i kapetana hrvatske nogometne reprezentacije Luku Modrića u svojim umjetno generiranim videima koje su širili društvenim mrežama, a u kojima se građanima nudila jednostavna zarada ili im se predlagalo da investiraju u sumnjive projekte. 

Razlog porasta slučajeva zloupotrebe umjetne inteligencije je njihova pristupačnost. Zavaravajući sadržaj može se proizvoditi uz minimalno opreme i vještina – ali uz pomoć umjetne inteligencije.

»Sve veća dostupnost deepfakea imat će velik utjecaj na način na koji građani percipiraju vlasti i medije... Ako se količina lažnih videosnimaka nastavi povećavati, građani više neće imati zajedničku stvarnost. Društveno povjerenje bit će ozbiljno narušeno«, stoji u izvješću Europolovog Laboratorija za inovacije iz siječnja ove godine. Stručnjaci s kojima je o tome razgovarao Europol boje se da bi to moglo dovesti do »informacijske apokalipse« ili »apatije stvarnosti«. Kako se to ne bi dogodilo, ključno je biti svjestan manipulacija. 

Jeftino i jednostavno

Koalicijske vlade jedna su od odlika razmjernih izbornih sustava, kakav je i hrvatski. Što su izbori bliže, sve je aktualnija i tema kombinacija – tko, s kim i pod kojim uvjetima bi mogao sastaviti Vladu?

 

Oštro je generirao ovu snimku pomoću alata koji koriste strojno učenje i materijala koje mu je ustupio N1.

 

Ovaj je video generirala umjetna inteligencija, a za potrebe njegove izrade Oštru je materijale ustupila informativna platforma N1. Jedan od razloga za zabrinutost, vezan uz umjetno generiran sadržaj, jest činjenica da je sam proces njegove izrade vrlo jednostavan, a potrebni alati lako dostupni. Oštro je postupak podijelio u dva dijela – prvi zadatak je bio generirati glas željene osobe i glasovnu poruku, a nakon toga uskladiti tu poruku s postojećim videom. 

Da bi se generirao sintetički glas, potreban je isječak nečijega govora, koji može biti kraći od jedne minute. Taj isječak aplikacija analizira korištenjem umjetne inteligencije i strojnog učenja, a nakon analize isječka može »pročitati« bilo koji tekst koji se unese u aplikaciju. Generiranu poruku potom treba spojiti s postojećim videom osobe, što je moguće napraviti uz pomoć alata s funkcijom »Lip Sync«, odnosno metodom modificiranja pokreta usta u videu kako bi odgovarali novoj audio snimci.

  • Video napravljen deepfake-tehnologijom, posebno ako su u njegovoj izradi korišteni javno dostupni, besplatni alati, često ima neki od sljedećih propusta:

    1. Nepravilnosti na licu: Sjene su čudne, pokreti očiju i usana neobični, a postoje nepravilnosti i u boji kože.

    2. Neprirodni pokreti i izrazi: Pokreti nisu u skladu s normalnim ponašanjem osobe, mogu izgledati kao tikovi.

    3. Nedosljednost zvuka: Video i zvuk nisu savršeno sinkronizirani, glas ne zvuči prirodno i usta se ne poklapaju s izgovorenim riječima.

    4. Pozadina i osvjetljenje: Pozadina je mutna i neprirodna, a osvjetljenje na osobi ne odgovara ostatku kadra.

    5. Ograničen raspon pokreta: Osoba se ne kreće prirodno, čini se da se neki pokreti ponavljaju.

    6. Niska kvaliteta: Ponekad se mogu primijetiti čudni »ostaci« i izobličenja, osobito kod niže kvalitete videozapisa.

    7. Tekstura, detalji: Ponekad lice može izgledati neprirodno ili »plastično« zbog netočne reprodukcije teksture kože i detalja, posebno kod viših rezolucija.

    8. Pomicanje usana kada osoba ne govori: Ako se usta pomiču i kada osoba ne govori, to je jedan od znakova deepfakea.

    9. Smijeh: Deepfake često loše reproducira smijeh zbog nedostatka takvih primjera u bazama podataka, jednostavno se ne zna smijati.

    10. Logika i kritičko razmišljanje: Ako je malo vjerojatno da bi se takav sadržaj izbacio u javnost, ako je šokantan – moguće je da nije stvaran.

Iako su neki alati za pretvaranje teksta u govor dizajnirani iz šale ili u korporativne svrhe, ispostavilo se da se vrlo jednostavno mogu prenamijeniti za potrebe političke propagande. Na to je upozorilla Globalna mreža za istraživačko novinarstvo 26. veljače u uputama za istraživanje generiranog zvuka. Također, naveli su kako se takvi alati mogu kupiti po cijenama koje su izrazito niske u odnosu na budžete stranačkih kampanja.

No, lažne snimke i pokušaji podmetanja političkim oponentima nisu jedini problem – manipulacija ide u oba smjera. Dostupnost alata koji koriste umjetnu inteligenciju znači da političari i drugi dužnosnici, kada ih se uhvati u nedoličnom ponašanju, mogu tvrditi da je riječ o manipulacijama. Ultimativno rješenje ovog problema, kako piše GIJN, je da mediji konstantno provjeravaju vjerodostojnost svojih izvora i dokaza. Na taj način će opravdati povjerenje svojih čitatelja.

Maglovita budućnost

Početkom godine Europska komisija donijela je odluku o osnivanju Europskog ureda za umjetnu inteligenciju, zaduženog za provođenje Zakona o umjetnoj inteligenciji izglasanog u Europskom parlamentu tri mjeseca kasnije. 

»Ovisno o okolnostima njezine specifične namjene i upotrebe, umjetna inteligencija može stvoriti rizike i uzrokovati štetu javnom interesu«, poručili su iz Europske komisije. 

Prema novom zakonu, zabranjeno je koristiti umjetnu inteligenciju na način koji ugrožava prava građana, a UI-sustavi opće namjene moraju ispunjavati određene zahtjeve transparentnosti. Sadržaj generiran pomoću umjetne inteligencije morat će biti jasno deklariran kao takav, a tvrtke koje je koriste morat će razvijati svoje modele tako da ne generiraju ilegalan ili diskriminatoran sadržaj.

Iako to djeluje kao rješenje problema zloupotrebe deepfakea, međunarodna pravnica i stručnjakinja za digitalizaciju Cristina Vanberghen za Euractiv je rekla da nije sigurna je li trenutni okvir u pogledu zakonske odgovornosti dovoljan kako bi se pravilno tumačili svi rizici.

Također, kaže i kako su deepfakeovi u Zakonu o umjetnoj inteligenciji trenutno klasificirani kao sustavi umjetne inteligencije »ograničenog rizika«. To znači da se na njih odnosi puno manje propisa u usporedbi sa sustavima »visokog rizika« poput medicinske umjetne inteligencije ili UI alata za prepoznavanje lica. Deepfakeovi mogu, međutim, imati značajne štetne učinke.

Vanberghen je zaključila kako su ovdje od presudne važnosti pažljivo osmišljeni zakoni koji imaju potencijal njegovati društveno odgovorne prakse, kao i učinkoviti mehanizmi njihove provedbe. »Istovremeno treba i educirati javnost, posebno u pogledu digitalne pismenosti i kritičkog razmišljanja«, rekla je.


Priča je nastala u suradnji s češkim istraživačkim portalom Investigace.cz, u sklopu projekta Firehose of Falsehood koji istražuje dezinformacijski ekosustav, orkestriran od strane ruskog državnog aparata.