Ostani doma
Potraga

DEEP FAKE

Ukrasti nekome lice nikada nije bilo lakše: Potraga istražuje kako se zaštititi od poplave sve uvjerljivijih lažnih snimki

Ukrasti nekome lice nikada nije bilo lakše: Potraga istražuje kako se zaštititi od poplave sve uvjerljivijih lažnih snimki
RTL

Programi za takozvani deep fake sve su napredniji, lažne snimke sve uvjerljivije i opasnije

Što je stvarnost, a što varka? U ovoj priči one će se miješati. Želimo samo pokazati kako u današnje vrijeme naprednih tehnologija nije dovoljno vjerovati svojim očima. Jer softver je uz malu pomoć čovjeka u stanju jedno lice zamijeniti drugim. U filmu Nema zemlje za starce glavnu ulogu glumi Javier Bardem. No, odjednom mu ulogu preotima Arnold Schwarzenegger. Tomu Hanksu je, pak, ulogu života oteo John Travolta i postao Forrest Gump. Dogodio se deepfake ili duboka prevara. A ako jedan glumac može postati drugi, možda bih i ja mogao postati premijer?

Vezana vijest

Nova prijetnja umjetne inteligencije

Ja nisam glumac, a multimedijalni umjetnik Vedran Tomac nikad se dosad nije bavio deepfakeom ali razumije se u videotehnologiju i idemo vidjeti može li me pretvoriti u nikog drugog već premijera Andreja Plenkovića. Vedran se baca na posao pomoću besplatnog i svima dostupnog softvera. Obično se profesionalni deepfakeovi rade tjednima. On ima samo četiri dana.

''Program pregledava sve snimke koje smo napravili u studiju, uspoređuje s Plenkovićevim snimkama koje smo skupili s YouTubea što smo mogli kvalitetnije i program ekstrakta svako lice, svaki izraz i uspoređuje ga s tvojim izrazima'', objašnjava Tomac.

Potrebno je jako računalo koje može mapirati lice i u svakoj sličici moga lica naći sličnu ekspresiju koju je pronašlo kod premijera.

''Bilo koji mulac koji se želi potruditi i može napraviti kojekakav kaos, ali da bismo mi dobili nešto čim vjernije ti bi trebao biti obučen kao Plenković, skinuti geste, govor i sve, a tu je i problem glasa. Tu bi trebao imitator koji može skinuti glas, zna se odjenuti, zna geste i tu bismo dobili velik postotak identičnosti. Tu se još malo kuži razlika'', objašnjava Tomac.

Vezana vijest

Sadržaj se nastavlja...

Upravo se čita

Već smo vidjeli da se nekome krade identitet putem lažnog predstavljanja, krivotvorenja potpisa, lažiranja e-maila ili slično, ali da je nekome ukradeno lice, potencijalno i glas, to je nešto novo i jako zastrašujuće. Zamislite da netko napravi nešto slično dva dana prije izbora, ali umjesto benigne poruke političaru napakira nešto doista skandalozno? Dok bi ovaj objasnio da to nije on, već bi bilo prekasno.

''Moglo bi se manipulirati javnošću. Moglo bi dovesti do toga da više ne vjerujemo medijima zato što sve što se stavi u medije, može se krivotvoriti. To mi se ne sviđa. Ne sviđa mi se mogućnost da netko koristi tehnologiju da progura svoje ciljeve, da progura svoju političku opciju ili da nekog konkurenta izbaci iz igre. Takve stvari mi se ne sviđaju'', kaže Siniša Šegvić sa Zavoda za računalne i inteligentne sustave na FER-u.

On se bavi računalnim učenjem i računalnim vidom i pokazuje što na FER-u sad razvijaju. Kao i u slučaju deepfakea, i kod razvoja autonomne vožnje računalu je potrebno mnogo podataka kako bi čim bolje učilo. Primjer je to kako se duboko učenje prvenstveno razvija u dobre namjene.

''Tehnologija je neutralna. Onaj tko to razvija sigurno mu nije stalo do toga da vara ljude jer ako želiš varati ljude ima lakših načina za zaradu od razvijanja tehnologije i varanja njome ljudi. Danas znamo da duboki modeli mogu dovesti do toga da omoguće nekome da krivotvori sliku ili video i dobro je da se te mogućnosti istraže i ispitaju prije nego što ta tehnologija postane dovoljno razvijena da prouzroči stvarnu štetu''.

Šteta je već počinjena. Prva upotreba deepfakea bila je u pornoindustriji kad su autori na tijela običnih glumica stavljali lica poznatih osoba poput Scarlet Johansson i time privukli milijune klikova zbog čega su danas takvi sadržaji zabranjeni. Zamislite da netko u takav video stavi vaše lice i snimku proširi uokolo, a to je nešto što djeca mogu raditi kako bi napakostila jedni drugima ne razmišljajući o mogućim posljedicama.

''Ako će to biti commodity u smislu da će svaka osoba moći za relativno jeftine novce dobiti vrhunsku lažnu snimku, moći ćete se osvećivati ženama, ljubavnicama, poslovnim partnerima, konkurentskim firmama i ljudi će morati u značajnoj mjeri promijeniti svoje ponašanje. Morat će napraviti minimalnu dodatnu provjeru kako bi utvrdili autentičnost jer kroz idućih par godina će biti normalno da to možete koristiti kao privatna osoba protiv nekog drugog'', upozorava Tomislav Androić, stručnjak za računalnu sigurnost.

Vezana vijest

Robot Sophia

Danas je primjera deepfake videa prepun internet i možda ste na neke već dosad nasjeli. Dobra je stvar što se još uvijek, čak i kod profesionalno napravljenih deepfakeova, tu i tamo vidi da je nešto malo čudno- ako gledamo doista pažljivo jer trenirani smo za čitanje lica od dana kad smo se rodili.

''Vidi se da nisu pravi. Pogotovo oko očiju jer nas oči oduvijek interesiraju. Zanima nas što taj drugi hoće od nas, želi li nas mlatnuti toljagom ili s nama pregovarati o ljetini. To je nama bitno i zato mi skužimo da se te oči ne ponašaju prirodno. Ljudi još uvijek mogu prepoznati deepfakeove i oni još nisu dovoljno dobri da zeznu ljude. Oni su zabavni, gledali ste možda video gdje Trump i Putin zajedno pjevaju Imagine, ali još uvijek nisu tako dobri da mogu prevariti ljude'', ističe Šegvić.

Samo, dokad će to biti tako u svijetu zatrpanom selfijima koji aplikacijama za deep mogu dati sav potreban materijal?

''Tim algoritmima je potreban jako velik izvor informacija. Što više informacija mi tim algoritmima dajemo dobrovoljno, to je veća mogućnost da će oni postojati bolji i da se u vrlo kratkom roku neće moći razlikovati od stvarnih slika. To je ono što će nam se dogoditi sigurno brže od 10, a vjerojatno u manje i od pet godina, da će ti algoritmi postati takvi da ih ljudskim okom nećete moći razlikovati'', upozorava Androić.

Kako je reporter Potrage Dario Todorović nakratko postao premijer, ali i predsjednik Sabora, kako deepfake postaje sve uvjerljiviji i opasniji pogledajte u video prilogu:

 

Preporučujemo ti još sadržaja

Reci što misliš!