Novosti / Zanimljivosti

Oprezno sa snimkama

Nova prijetnja umjetne inteligencije: Predstavljena tehnologija softverske zamjene lica

Nova prijetnja umjetne inteligencije: Predstavljena tehnologija softverske zamjene lica
Shutterstock

Znanstvenici upozoravaju da se na ovaj način vrlo jednostavno može manipulirati svim ljudima te da zloupotreba u političke svrhe nije jedina opasnost

Slavna Mona Lisa odnedavno uspijeva "pomicati" glavom, očima i usnama. Uz pomoć umjetne inteligencije.

Video snimka je nastala u Samsungovom moskovskom istraživačkom laboratoriju za umjetnu inteligenciju pri čemu se koristila takozvana 'deepfake' tehnologija koja se sastoji u softverskoj zamjeni lica, piše BBC. 

Sadržaj se nastavlja...

Upravo se čita

No čini se da su mnogi zabrinuti zbog njezine sve češće upotrebe jer se može zloupotrijebiti. Naime, stavljajući lica ljudi na druge predloške ovom je tehnologijom moguće stvoriti prilično uvjerljive kopije i lažne video zapise, što su neki dosad koristili za zabavu, no ima i onih koji su to činili s manje plemenitim motivom. 

Samsungovi algoritmi ranije su isprobani na javnoj bazi koju čini 7000 fotografija poznatih ličnosti, a one su preuzete s YouTubea.

Sustav umjetne inteligencije mapira crte lica i pokrete, a cilj mu je "oživjeti" fotografiju. Za stvaranje 'deepfakesa' koristi se tehnologija neuronskih mreža koja je u stanju aplicirati bilo koje dobro modelirano lice u bilo koji zadani joj kontekst, pa je tako jednog glumca moguće 'prebaciti' u drugi lik. Ovu je tehnologiju iskoristio i Dalijev muzej u St. Petersburgu u američkoj saveznoj državi Floridi, da bi "među žive vratio" slavnoga španjolskog umjetnika.

Slično je postignuto s fotografijama Alberta Einsteina, Fjodora Dostojevskog i Marilyn Monroe

Lažni Obama

Znanstvenici sa Sveučilišta u Tel Avivu sličan sustav predstavili su godine 2017. Lažni video bivšega američkog predsjednika Baracka Obame napravio je doktor Supasorn Suwajanakorn.

VEZANE VIJESTI

On je za BBC rekao da postoji mogućnost zloupotrebe ovakve tehnologije, no bez sumnje se može koristiti i u pozitivne svrhe. Primjerice, kaže dr. Suwajanakorn, osobe koje su izgubile voljenog člana obitelji mogle bi "oživjeti" preminulu osobu i stvoriti njihov avatar.

Znanstvenici otprije upozoravaju da se postupak može iskoristiti kako bi se napravile lažne video snimke političara. Kažu i da se na ovaj način vrlo jednostavno može manipulirati svim ljudima te da zloupotreba u političke svrhe nije jedina opasnost. Naime, deepfake tehnologija je, osim za manipulaciju fotografija slavnih osoba upotrijebljena i za kreiranje pornografskih sadržaja. 

"Slavne i javne osobe moraju biti svjesne toga da je uvjerljiv lažni video vrlo lako kreirati kada poznajete 'deepfake' tehnologiju, zbog čega o tomu treba razgovarati", smatra Dave Coplin, direktor konzultantske kuće "The Envisioners", koja se bavi korištenjem umjetne inteligencije.

Izdvojeno

Vezani članci

Čitaj, prati i komentiraj naše priče i putem mobilne aplikacije te na našoj Facebook stranici Vijesti.hr!

Reci što misliš!