Kako da znate da gledate video nastao pomoću veštačke inteligencije

Kako da znate da gledate video nastao pomoću veštačke inteligencije

Video-generatori vještačke inteligencije postali su toliko dobri da se naš odnos prema kamerama počeo mijenjati. Društvene mreže preplavljene su video snimcima nastalim uz pomoć vještačke inteligencije.

Postoji jedna stvar koja ih sve odaje i može da vam pomogne da ih prepoznate – da li video izgleda kao da je snimljen ‘digitronom’? Gotovo je.

Bićete obmanuti. Vjerovatno već jeste bili.

Video-generatori vještačke inteligencije postali su toliko dobri da se naš odnos prema kamerama počeo mijenjati. Evo najboljeg moguće scenarija: prevariće vas, iznova i iznova, sve dok vam ne bude dosta svega i počnete da dovodite u pitanje svaku stvar koju vidite.

Dobro došli u budućnost. Ali, za sada, ima nekoliko znakova upozorenja koji ih odaju, pa možete lako da ih potražite.

Jedna stvar među njima se ističe. Ako vidite snimak sa lošim kvalitetom slike, zrnastu, zamućenu sliku – možda gledate sadržaj vještačke inteligencije.

„To je jedna od prvih stvari koje provjeravamo”, kaže Hani Farid, profesor kompjuterskih nauka na Kalifornijskom univerzitetu u Berkliju, pionir na polju digitalne forenzike i osnivač kompanije za otkrivanje dipfejkova GetReal Security.

Tužna istina je da će alatke za snimanje videa pomoću vještačke inteligencije na kraju postati još bolje, tako da će ovaj savjet uskoro postati potpuno beskoristan. To bi moglo da se desi već za nekoliko mjeseci ili će mu možda trebati više godina.

Teško je reći. Žao mi je.

Ali ako se prepustite nijansama sa mnom na trenutak, ovaj savjet bi mogao da vas spase od dok ne naučite da promijenite način na koji doživljavate istinu. Budimo sasvim jasni.

Ovo nije nikakav dokaz. Nije vjerovatnije da će snimci pravljeni uz pomoć vještačke inteligencije izgledati lošije.

Najbolje AI alatke mogu da izbace predivne, ispolirane snimke. A ni snimci niskog kvaliteta nisu nužno pravljeni uz pomoć vještačke inteligencije.

„Ako vidite nešto izrazito lošeg kvaliteta, to ne znači automatski da je lažno. Ne znači da iza takvog nečega stoji zla namjera”, kaže Metju Stem, profesor i šef Multimedijalne i informatičke bezbjednosne laboratorije na Univerzitetu Dreksel, u Americi.

Umjesto toga, poenta je u tome da su mutni, pikselizovani video snimci nastali pomoću vještačke inteligencije najskloniji tome da vas prevare, makar za sada. To je znak da treba malo više da obratite pažnju na ono što gledate.

„Vodeći generatori sadržaja iz teksta u video kao što je Guglov Veo i OpenAI-jeva Sora i dalje proizvode sitne nedosljednosti”, kaže Farid. „Ali to nisu više šest prstiju ili zbrkan tekst. Suptilnije je od toga”, dodaje.

Čak i današnji najnapredniji modeli često uvode probleme kao što su neprirodno glatka tekstura kože, neobični ili promjenljivi obrasci kose i odjeće, ili mali predmeti u pozadini koji se pomjeraju na nemoguće ili nerealistične načine. Sve to vrlo lako može da vam promakne, ali što je slika jasnija, veća je vjerovatnoća da ćete primijetiti te indikativne greške koje pravi vještačka inteligencija.

To je ono što čini video snimke nižeg kvaliteta toliko izazovnim. Kad tražite od vještačke inteligencije nešto što izgleda kao da je snimljeno na starom telefonu ili na sigurnosnoj kameri, na primjer, to može da prikrije artefakte koji bi inače mogli da posluže ljudima kao siguran znak.

U poslednjih nekoliko mjeseci, nekoliko AI videa visokog profila prevarili su ogroman broj ljudi. Svi su imali nešto zajedničko.

Lažni, ali slatki video divljih zeka kako skaču po trambolini stekao je 240 miliona pregleda na TikToku. Milioni drugih ljudi lajkovalo je snimak dvoje ljudi kako se zaljubljuju jedno u drugo u njujorškoj podzemnoj željeznici, ali su dijelili razočarenje kad se ispostavilo da je snimak lažan.

Lično sam povjerovao da je viralni video američkog sveštenika u konzervativnoj crkvi koji drži iznenađujuće ljevičarsku propovijed – pravi. „Milijarderi su jedina manjina koje treba da se plašimo.

„Oni imaju moć da unište ovu zemlju!”, grmeo je južnjačkim akcentom. Bio sam zapanjen.

Jesu li naše političke granice zaista postale toliko porozne? Nisu.

Bio je to još jedan rad vještačke inteligencije. Svaki od ovih videa izgledao je kao da je snimljen digitronom.

AI zeke? Prikazane su kao snimak sa sigurnosne kamere nastao noću.

Par u podzemnoj željeznici? Vide se pikseli.

Sveštenik? Video je izgledao kao da je previše zumiran.

A ispostavlja da su ti snimci imali i neke druge karakteristike. „Tri stvari na koje treba da obratite pažnju su rezolucija, kvalitet i dužina snimka.

„U najvećem broju slučajeva, AI video snimci su veoma kratki, još kraći od tipičnih videa na TikToku ili Instagramu, koji su oko 30 do 60 sekundi dugi. „Ogromna većina videa koje mi traže da verifikujem traju šest, osam ili 10 sekundi”, kaže Farid.

To je zato što je generisanje videa uz pomoć vještačke inteligencije skupo, tako da većina alatki postiže maksimum sa kratkim snimcima. Plus, što je video duži, veća je vjerovatnoća da će ga vještačka inteligencija uprskati.

„Možete da zalijepite više videa vještačke inteligencije jedan za drugi, ali primijetićete rez otprilike na svakih osam sekundi.” Druga dva faktora, rezolucija i kvalitet, srodni su, ali različiti.

Rezolucija se odnosi na broj ili veličinu piksela na slici, dok je kompresija proces koji smanjuje veličinu video fajla odbacujući njegove detalje, često ostavljajući mutne ivice. Štaviše, Farid kaže da su snimci niskog kvaliteta su toliko privlačni da ih kreatori namjerno zamućuju.

„Ako želim da prevarim ljude, šta uradim? Generišem lažni video, zatim smanjim rezoluciju, da ne razaznajete sve sitne detalje.

„A onda dodam kompresiju koja dodatno zakloni bilo kakve moguće artefakte. „To je uobičajena tehnika”, dodaje.

Problem je u tome što, dok čitate ovo, tehnološki giganti troše milijarde dolara da učine vještačku inteligenciju još realističnijom. „Iako su ti vizuelni tragovi sada raspoznatljivi, uskoro više neće biti”, kaže Stem.

„Očekujem da će ovi vizuelni tragovi nestati iz snimaka u roku od dvije godine, makar oni najočigledniji, zato što su već praktično iščezli iz slika generisanih pomoću vještačke inteligencije. „Prosto više ne možete da vjerujete vlastitim očima.”

To ne znači da je istina unaprijed izgubljena bitka. Kad istraživači kao što su Farid i Stem verifikuju neki sadržaj, imaju naprednije tehnike na raspolaganju.

„Kad generišete ili modifikujete video, on za sobom ostavlja male statističke tragove koje naše oči ne mogu da vide, kao što su otisci prstiju na mjestu zločina. „Prisustvujemo nastanku tehnika koje mogu pomoći da se potraže i razotkriju ti otisci prstiju”, kaže Stem.

Ponekad raspored piksela u lažnom videu može biti drugačiji nego u pravom, na primjer, ali faktori poput ovih nisu stoprocentno pouzdani. Tehnološke kompanije takođe rade na novim standardima za verifikaciju digitalnih informacija.

Suštinski gledano, kamere mogu da ugrade informacije u fajl istog trenutka kad stvore sliku da bi pomogle da se dokaže da je ona prava. Na isti način, AI alatke mogu automatski da dodaju slične detalje njihovim snimcima i slikama da bi dokazale da su ove lažne.

Stem i drugi kažu da bi ovi napori mogli biti od velike pomoći. Pravo rješenje, prema ekspertu za digitalnu pismenost Majku Kolfildu, jeste da svi počnemo da razmišljamo drugačije o onome što viđamo onlajn.

Traženje tragova koje vještačka inteligencija ostavlja za sobom nije „trajan” savjet, zato što se ti tragovi neprestano mijenjaju, kaže on. Umjesto toga, Kolfild kaže da moramo da odustanemo od ideje da video snimci ili slike znače bilo šta van konteksta.

„Moj stav je da će video uglavnom postati donekle kao tekst, na duže staze, gdje je provenijencija [poreklo videa], a ne površinske odlike, ono što je ključno, i mogli bismo već da počnemo da se navikavamo na to”, kaže Kolfild.

Nikada ne pogledate parče teksta i odmah pretpostavite da je tačno samo zato što ga je neko zapisao. Ako postoji bilo kakva sumnja, odete da istražite izvor te informacije.

Video snimci i slike su drugačiji, zato što je bilo teže lažirati ih i manipulisati njima. S tim je sada svršeno.

Jedino što je sada važno je odakle je stigao taj sadržaj, ko ga je postavio, koji je kontekst i da li ga je verifikovao povjerljivi izvor. Pitanje je kada ili da li ćemo svi prihvatiti tu činjenicu.

„Ako mi dozvolite da budem malo grandiozan, mislim da je ovo najveći izazov za bezbjednost informacija u 21. vijeku. „Ali ovaj problem je tek nekoliko godina star.

„Broj ljudi koji radi na njegovom rješavanju relativno je mali, ali je u rapidnom porastu. „Biće nam potrebna mješavina rješenja, obrazovanja, inteligentnih politika i tehnoloških pristupa. Nisam spreman da prestanem da se nadam”, kaže Stem.

Dobivaj najvažnije vijesti porukom na Viberu: KLIKNI OVDJE
Preuzmite mobilnu aplikaciju 072info za Android: KLIKNI OVDJE
Preuzmite mobilnu aplikaciju 072info za iOS: KLIKNI OVDJE