Oprezno sa snimkama / Nova prijetnja umjetne inteligencije: Predstavljena tehnologija softverske zamjene lica

Image
Foto: Shutterstock

Znanstvenici upozoravaju da se na ovaj način vrlo jednostavno može manipulirati svim ljudima te da zloupotreba u političke svrhe nije jedina opasnost

25.5.2019.
16:18
Shutterstock
VOYO logo

Slavna Mona Lisa odnedavno uspijeva "pomicati" glavom, očima i usnama. Uz pomoć umjetne inteligencije.

Video snimka je nastala u Samsungovom moskovskom istraživačkom laboratoriju za umjetnu inteligenciju pri čemu se koristila takozvana 'deepfake' tehnologija koja se sastoji u softverskoj zamjeni lica, piše BBC. 

Tekst se nastavlja ispod oglasa

No čini se da su mnogi zabrinuti zbog njezine sve češće upotrebe jer se može zloupotrijebiti. Naime, stavljajući lica ljudi na druge predloške ovom je tehnologijom moguće stvoriti prilično uvjerljive kopije i lažne video zapise, što su neki dosad koristili za zabavu, no ima i onih koji su to činili s manje plemenitim motivom. 

Samsungovi algoritmi ranije su isprobani na javnoj bazi koju čini 7000 fotografija poznatih ličnosti, a one su preuzete s YouTubea.

Tekst se nastavlja ispod oglasa

Sustav umjetne inteligencije mapira crte lica i pokrete, a cilj mu je "oživjeti" fotografiju. Za stvaranje 'deepfakesa' koristi se tehnologija neuronskih mreža koja je u stanju aplicirati bilo koje dobro modelirano lice u bilo koji zadani joj kontekst, pa je tako jednog glumca moguće 'prebaciti' u drugi lik. Ovu je tehnologiju iskoristio i Dalijev muzej u St. Petersburgu u američkoj saveznoj državi Floridi, da bi "među žive vratio" slavnoga španjolskog umjetnika.

Slično je postignuto s fotografijama Alberta Einsteina, Fjodora Dostojevskog i Marilyn Monroe

Tekst se nastavlja ispod oglasa

Lažni Obama

Znanstvenici sa Sveučilišta u Tel Avivu sličan sustav predstavili su godine 2017. Lažni video bivšega američkog predsjednika Baracka Obame napravio je doktor Supasorn Suwajanakorn.

VEZANE VIJESTI

Tekst se nastavlja ispod oglasa

On je za BBC rekao da postoji mogućnost zloupotrebe ovakve tehnologije, no bez sumnje se može koristiti i u pozitivne svrhe. Primjerice, kaže dr. Suwajanakorn, osobe koje su izgubile voljenog člana obitelji mogle bi "oživjeti" preminulu osobu i stvoriti njihov avatar.

Znanstvenici otprije upozoravaju da se postupak može iskoristiti kako bi se napravile lažne video snimke političara. Kažu i da se na ovaj način vrlo jednostavno može manipulirati svim ljudima te da zloupotreba u političke svrhe nije jedina opasnost. Naime, deepfake tehnologija je, osim za manipulaciju fotografija slavnih osoba upotrijebljena i za kreiranje pornografskih sadržaja. 

Tekst se nastavlja ispod oglasa

"Slavne i javne osobe moraju biti svjesne toga da je uvjerljiv lažni video vrlo lako kreirati kada poznajete 'deepfake' tehnologiju, zbog čega o tomu treba razgovarati", smatra Dave Coplin, direktor konzultantske kuće "The Envisioners", koja se bavi korištenjem umjetne inteligencije.

Toma
hABAZIN VS. mAGYAR
Versailles
Senorita 89
Brak na prvu
default_cta
Samit
Još jedna runda
Hell's kitchen
Ljubavna zamka
Pevačica
default_cta
Nado
Otok iskušenja
Obiteljske tajne
Brak na prvu Australija
Cijena strasti
default_cta
VOYO logo