Kako uočiti Deep Fake Face-Swapped Video
Nedavno je Reddit ponovno objavljivao vijesti sa subredditom u kojem ljudi koriste alat za strojno učenje pod nazivom “Deep Fake” kako bi automatski zamijenili lice jedne osobe drugom videu. Očito, budući da je ovo internet, ljudi ga koriste za dvije stvari: lažne pornografije slavnih i umetanje Nicolasa Cagea u slučajne filmove.
Dok je zamjena nečijeg lica fotografijom uvijek bila relativno jednostavna, zamjena nečijeg lica u videu nekad je bila dugotrajna i teška. Do sada su to uglavnom radili studiji VFX za holivudske filmove velikog budžeta, gdje je glumčevo lice zamijenjeno dvostrukim štosom. Ali sada, s Deep Fakeom, svatko s računalom može to učiniti brzo i automatski.
Prije nego što krenete dalje, morate znati kako izgleda Deep Fake. Provjerite SFW video ispod koji je kompilacija različitih slavnih lica swaps, uglavnom uključuje Nic Cage.
Deep Fake softver radi pomoću strojnog učenja. Prvo je trenirano s metom lica. Iskrivljene slike cilja prolaze kroz algoritam i uče kako ih ispraviti kako bi nalikovale nepromijenjenom licu mete. Kada se tada algoritam hrani slikama druge osobe, pretpostavlja se da su iskrivljene slike cilja i da ih pokušava ispraviti. Za dobivanje videozapisa, Deep Fake softver radi na svakom kadru pojedinačno.
Razlog zbog kojeg su Deep Fakes uglavnom uglavnom uključili aktere jest da postoji mnogo snimaka od njih dostupnih iz različitih kutova što čini trening djelotvornijim (Nicolas Cage ima 91 glumački broj na IMDB). Međutim, s obzirom na količinu fotografija i videozapisa koje ljudi objavljuju na mreži te da vam je potrebno samo oko 500 slika za obuku algoritma, nema razloga da se obični ljudi ne mogu ciljati previše, iako vjerojatno s malo manje uspjeha.
Kako uočiti duboko varanje
Upravo sada, Deep Fakes je prilično lako uočiti, ali će biti teže kako tehnologija postaje bolja. Ovdje su neke od poklona.
Čudna lica koja izgledaju. U mnogo Deep Fakesa, lica jednostavno izgledaju čudno. Značajke se ne podudaraju savršeno i sve se čini malo voskastim kao na slici ispod. Ako sve ostalo izgleda normalno, ali lice izgleda čudno, to je vjerojatno Deep Fake.
Treperenje. Zajednička značajka loših Deep Fake videozapisa je lice koje izgleda kao da treperi, a izvorne značajke ponekad se pojavljuju. To je obično očitije na rubovima lica ili kad nešto prođe ispred njega. Ako se dogodi čudno treperenje, gledate u Deep Fake.
Različita tijela. Deep Fakes su samo zamjene lica. Većina ljudi pokušava dobiti dobro tijelo, ali to nije uvijek moguće. Ako se čini da je osoba znatno teža, lakša, viša, kraća ili ima tetovaže koje nemaju u stvarnom životu (ili nemaju tetovaže koje imaju u stvarnom životu), postoji velika vjerojatnost da je lažna. U nastavku možete vidjeti doista očigledan primjer, gdje je lice Patricka Stewarta zamijenjeno s J.K. Simmons na sceni iz filma Whiplash. Simmons je znatno manji od Stewarta, pa izgleda čudno.
Kratki isječci. Upravo sada, čak i kada softver Deep Fake radi savršeno i stvara gotovo neprimjetnu zamjenu lica, on to može učiniti samo kratko vrijeme. Prije predugo, jedan od gore navedenih problema će se početi događati. Zato je većina Deep Fake isječaka koje ljudi dijele samo nekoliko sekundi, ostatak je neupotrebljiv. Ako vam se pokaže vrlo kratak isječak slavne osobe koja radi nešto, a nema dobrog razloga da je tako kratka, to je trag da je to Deep Fake.
Bez zvuka ili loše sinkronizacije usana. Softver Deep Fake samo prilagođava značajke lica; ne čarolija čini da jedna osoba zvuči kao druga. Ako nema zvuka s isječkom, i nema razloga da ne bude zvuka, to je još jedan trag koji gledate u Deep Fake. Slično tome, čak i ako postoji zvuk, ako se izgovorene riječi ne podudaraju ispravno s pokretnim usnama (ili usne izgledaju čudno dok osoba razgovara kao u isječku u nastavku), možda imate Deep Fake.
Nevjerojatni isječci. Ova vrsta se podrazumijeva, ali ako vam se pokaže doista nevjerojatan isječak, postoji dobra šansa da zapravo ne vjerujete u to. Nicolas Cage nikada nije glumio kao Loki u filmu Marvel. Ali to bi bilo cool.
Sumnjivi izvori. Kao i kod lažnih fotografija, odakle navodno dolazi videozapis, često je veliki trag o njegovoj autentičnosti. Ako New York Times vodi priču o tome, mnogo je vjerojatnije da je istina da nešto što otkrijete u slučajnom kutu Reddita.
Za sada, Deep Fakes su više užasna znatiželja nego veliki problem. Rezultate je lako uočiti, i iako je nemoguće oprostiti ono što se radi, nitko još ne pokušava izdati Deep Fakes kao originalne videozapise.
Međutim, kako tehnologija postaje bolja, vjerojatno će biti mnogo veći problem. Primjerice, uvjerljiva lažna snimka Kim Jong Un-a koja je objavila rat SAD-u mogla bi izazvati veliku paniku.