David Beckham na videu hovoří 9 jazyky. Britský startup chce deepfake videi způsobit revoluci v natáčení filmů

Jiří SvobodaJiří Svoboda

deepfake-beckham
0Zobrazit komentáře

Jakým způsobem lze docílit toho, aby světoznámý fotbalista David Beckham mluvil ve videu devíti jazyky, aniž by je uměl? Startup Synthesia to dokázal prostřednictvím svých technologií na výrobu videí s pomocí umělé inteligence a strojového učení a nyní díky svému umění od investorů vybral v prvním investičním kole 3,1 milionu dolarů (přes 70 milionů korun).

Slavný anglický, dnes již bývalý fotbalista David Beckham se stal na začátku měsíce tváří kampaně Malaria Must Die, která se propaguje jako první hlasová petice na světě. Vyráží tak do boje proti malárii, jedné z nejsmrtelnějších chorob, které každoročně podlehne několik milionů lidí, z nichž většinu tvoří nejmenší děti. Hlavní postavou celé kampaně je právě David Beckham, který ji propůjčil svou tvář, a to tentokrát opravdu doslova.

Na začátku propagačního videa totiž nejprve mluví sám David Beckham, jenže autoři pak přímo na jeho obličej namodelovali osm různých hlasů a jazyků dalších lidí, kteří se do kampaně zapojili. V záběru je tak sice stále Beckham, ale z jeho úst – která se pohybují přesně tak, jak mluví, aby byl záběr maximálně věrohodný – se line hlas někoho jiného. Po angličtině tak Beckham hovoří španělsky, rwandsky, arabsky, francouzsky, hindsky, mandarínsky, svahilsky a jorubsky. Jak vypadá výsledná reklama, si můžete prohlédnout na přiloženém videu výše.

Kampaň už globálně zasáhla stovky tisíc lidí a na způsob, jakým ji startup Synthesia vytvořil, se můžete podívat naopak na videu níže. Britský startup na ni spolupracoval s R/GA London a Ridley Scott Associates a její hlavní součástí je tzv. metoda deepfake, která využívá strojové a hluboké učení k tomu, aby dokázala vytvořit právě velmi realistické videomontáže, na nichž na něčí obličej snadno napojíte slova někoho jiného.

Podobná deepfake videa jsou často minimálně na první pohled prakticky nerozeznatelná od skutečných záběrů a často se tak o nich diskutuje jako o dalším dezinformačním fenoménu po fake news, který by mohl mít – v případě, že se ho chopí někdo s nekalými úmysly – ještě ničivější dopad. Samotná technologie, která takové videomontáže umožňuje, však nyní zaujala několik investorů, kteří se rozhodli do startupu Synthesia investovat. Vidí v ní totiž ještě jiný potenciál, než je vytváření dezinformací. Mohla by prý v budoucnu výrazně zlevnit filmový průmysl, protože zajistí efektivnější videoprodukci.

Synthesia pracuje s tezí, že dnešní filmový průmysl je příliš drahý a neškálovatelný a jakmile je jednou něco natočeno, těžko se v postprodukci dá již s natočenými materiály zásadně manipulovat či je nějak měnit. Zakladatel společnosti Victor Riparbelli Rasmusen pro magazín TechCrunch řekl, že generování částečně nebo plně umělého videa je více efektivní. Technologii přirovnává k Photoshopu pro video.

fallonlarson

Přečtěte si takéČeská VR hra Beat Saber se objevila v show Jimmyho Fallona. Proti němu si zahrála herečka Brie LarsonČeská VR hra Beat Saber se objevila v show Jimmyho Fallona. Proti němu si zahrála herečka Brie Larson

Rasmusen tvrdí, že produkčním společnostem dovolí Synthesia zdesetinásobit množství produkovaného videa za desetinu ceny. Ve výsledku to může znamenat překonání jazykové bariéry a znásobení videoprodukce, což jsou pochopitelně aspekty, které investory zajímají. Synthesia věří, že spíše než v terénu by filmaři v budoucnu více pracovali u počítače a v kombinaci s jinými technickými možnostmi dneška by tak mohli ze záběrů natáčených v minulosti vytvořit zcela jiné scény či filmy.

Etický kodex i spolupráce s médii

Když se v jedné větě objeví slovo deepfake a film, měl by svítit rudý alarm. V době dezinformací a fake news se deepfakes, které jsou běžně nerozeznatelné od originálu, jeví jako to poslední, co internet potřebuje. Synthesia si je však potenciálního nebezpečí svého nástroje vědoma a má etická pravidla, kterých se drží – například prý nikdy nebude video s kýmkoliv předělávat bez jeho či jejího explicitního povolení, a to včetně satirických videí. Proto se ani nejedná o software, který si lze někde stáhnout a volně používat. Kromě toho chce londýnský startup aktivně spolupracovat s mediálními a vládními organizacemi, aby co nejlépe dokázal veřejnost o těchto technologiích vzdělat.

Deepfakes, které mají kořeny v pornografii, ale nedávno pronikly například i do politických vyjádření. Kupříkladu Angela Merkelová byla ve videu nahrazena Donaldem Trumpem a současnému argentinskému prezidentovi byla při projevu propůjčena podoba Adolfa Hitlera. Nebo se také objevilo video, kdy byla Donaldu Trumpovi propůjčena podoba Rowana Atkinsona.

K dokonalé iluzi chybí jen málo – uvěřitelný hlas, například takový, jako předvedl herec Jordan Peele v deepfaku s Barackem Obamou.

Výrobci, kteří nezávisle na sobě vytváří deepfakes, mají obvykle pro své počínání dobrý důvod. Synthesia chtěla pomoct kampani proti malárii a do budoucna zlevnit filmový průmysl. Počítačový vědec Supasorn Suwajanakorn zase navrhl, že by technologii šlo použít na interaktivní rozpravy s již nežijícími lidmi, kteří přežili holokaust, nebo světoznámými učiteli, kteří by tak nově mohli jen na základě pár videí a fotek z minulosti dávat přednášky studentům v dnešní době.

Sám Suwajanakorn nicméně pracuje na technologii, která dle něj bude „bojovat proti jeho vlastní práci“. Mimo jiné vyvíjí webový plugin, který dokáže automaticky upozornit na potenciální deepfake video.

Úmysl dobrý, potenciál zneužití velký

Prvotní úmysly některých tak nejsou zlé a zdá se, že rizika si většina lidí uvědomuje. Už nyní ale existují případy, kde byly podobné technologie zneužity. Přesvědčil se o tom například jeden televizní kanál v Seattlu, který v lednu vysílal upravené video s americkým prezidentem Donaldem Trumpem. Jeden z editorů si za to vysloužil vyhazov.

Ačkoliv tak software startupu Synthesia není veřejný, každý si může stáhnout aplikace jako FakeApp, DeepFaceLab, FaceSwap nebo mFakeApp a k výsledku startupu se přiblížit. Podle tvrzení serveru Bloomberg je problém, že je extrémně jednoduché takové video vyrobit.

Software ještě před nedávnem potřeboval několik hodin videa osoby, na které chce kreativec napasovat vlastní hlas nebo mimiku. Tyto požadavky se ale postupem času stále snižují, a tak budou falešné filmové záběry za pomocí technologie od Synthesia možná v konečném důsledku ten nejmenší problém.