Jak fungují deepfakes, které jsou nerozeznatelné od reality? Mohou zničit internet, podílí se i Češi
Technologie Veo 3 generuje dechberoucí videa i děsivě přesvědčivé iluze, které mohou ovlivnit veřejné mínění.
„Lidi, moře se před námi doslova otevřelo. Vysvětlím to později, teď jdeme skrz. A ne, tahle stezka opravdu není na Google mapách,“ říká do selfie kamery dlouhovlasý, vousatý muž, zatímco kráčí po dně Rudého moře. Obraz se chvěje, když rázným krokem kráčí vpřed, obklopen temnými stěnami vodního příkrovu. V patách má dav židovských uprchlíků, kteří se snaží uniknout před faraonovou armádou.
Tato neobvyklá adaptace biblického Exodu se nedávno stala virálním hitem na sociálních sítích. Nejde o vtipný skeč natočený pod taktovkou režiséra, ale o video kompletně vygenerované umělou inteligencí Veo 3. Tu představil technologický gigant Google veřejnosti na konci května.
someone used Veo3 to make Moses as a YouTuber live-streaming the Exodus pic.twitter.com/NyutVmhF89
— Trung Phan (@TrungTPhan) June 8, 2025
Pokročilý AI generátor dokáže z jednoduchého textového nebo obrazového zadání vytvořit video až o délce osmi sekund ve Full HD kvalitě včetně věrohodných zvukových efektů, hudby a dabovaných dialogů.
Aplikaci mohou uživatelé využívat v 73 zemích, včetně Spojených států nebo Velké Británie. Česko patří mezi území, která na oficiální přístup stále čekají. To však nezastavilo technologické nadšence, kteří geoblokaci obchází pomocí VPN nástrojů – aplikací, které jim přiřadí zahraniční IP adresu, díky které se k nástroji mohou dostat s předstihem.
Geografické omezení tedy není překážkou, kterou by Český uživatel nedokázal vyřešit. O něco horší je to však s cenou nového produktu. Přístup k nejnovějšímu modelu pro generování videa Veo 3 funguje primárně prostřednictvím nejdražšího předplatného Google AI Ultra.
Základní tarif Google AI Pro za 19,99 dolarů měsíčně (asi 460 Kč) využívá především starší model Veo 2, který však postrádá schopnost generovat realistický zvuk a výstupy z něj jsou podstatně méně realistické. Součástí předplatného je ale i možnost si v omezeném režimu otestovat pokročilejší Veo 3. Na začátku května v něm mohli uživatelé vytvořit dvě videa. Nyní mohou udělat zhruba sto videí měsíčně, ale pouze v režimu Veo 3 Fast. Rychlejší verze je určená pro rychlé testy s nižší kvalitou zvuku. Redakce CzechCrunch nástroj vyzkoušela a nechala pomocí něj umělou inteligenci vytvořit několik více či méně bizarních scén.
V jedné z nich se objevuje mohutný bílý labrador, který prochází rušnou kanceláří a čumákem před sebou tlačí po zemi cár novin, než se náhle rozhodne vyskočit jedné z pracovnic na stůl, čímž způsobí mezi zaměstnanci rozruch. Aplikace si s jednoduchým textovým zadáním poradí bez obtíží, v režimu Fast vznikne scéna do dvou minut a působí zároveň roztomile i znepokojivě.
Děsivé jsou na ní zejména nedokonalé výrazy obličeje, které jako by byly definicí psychologického jevu uncanny valley, fenoménu popisujícího nepříjemný pocit, který u lidí vyvolávají postavy nebo objekty, které se podobají člověku, ale nejsou zcela realistické – právě jako tváře vygenerované umělou inteligencí, které působí podivně neživě či nepřirozeně. Jejich vinou je stále patrné, že nejde o reálný záběr.
U režimu Fast to ale není překvapení – sám Google ho prezentuje jako nástroj určený spíše pro rychlé převedení konceptu do video podoby nebo jako zdroj inspirace před tvorbou kvalitnějšího a náročnějšího výstupu ve standardní verzi Veo 3.
Náročnější zájemce, kteří chtějí využívat nejmodernější model Veo 3, láká firma na prémiovou verzi AI Ultra za 250 dolarů měsíčně (skoro šest tisíc korun). Tento tarif obsahuje 12 500 AI kreditů, za které lze vytvořit odhadem až 125 videí.
Standardní Veo 3 je pomalejší, ale také podstatně realističtější. Proces generování krátkého, zhruba osmisekundového videa, trvá několik minut, během nichž negeneruje pouze obraz, ale rovnou i plně synchronizovaný zvuk, a to včetně dabingu, který může být i v češtině.
Pokud tak v příkazu specifikuje uživatel, že chce vytvořit český dialog, umělá inteligence vytvoří hlas, jehož kvalita je překvapivě přirozená jak ve výslovnosti, tak v intonaci a emocích odpovídajících scéně. Důkazem je například nedávný výtvor AI tvůrce a lektora zaměřujícího se na kreativní tvorbu pomocí umělé inteligence Ondřeje Svobody, který nedávno využil nástroje k tomu, aby ukázal, jaké by to bylo, kdyby se vyvolený kněžny Libuše, Přemysl Oráč, stal influencerem.
Nebezpečí hyperrealismu
Právě realismus nové technologie přináší závažná rizika. Americký časopis Time se na začátku měsíce pustil do podrobné analýzy možností jeho zneužití. Ukázal, že Veo 3 dokáže vytvořit klipy, které by vlivem masového sdílení na sociálních sítích mohly zavinit šíření nenávisti, paniky nebo nepokojů.
Jako jeden z nejzávažnějších příkladů američtí novináři ve svém článku vypichují nešťastnou situaci, ke které došlo jen pár dní po vydání Veo 3, kdy se v anglickém Liverpoolu vřítilo auto do davu lidí a zranilo více než 70 osob. Policie po nehodě rychle upřesnila, že řidičem havarovaného vozu byl běloch, aby předešla rasistickým spekulacím o účasti migrantů. Když však redakce požádala Veo 3 o rekonstrukci této situace a vygenerování záběrů, na nichž policie obklopuje havarované auto, AI bez zaváhání scénu vytvořila. A skutečného řidiče, bělocha, vyměnila za muže černé pleti.
Také CzechCrunch otestoval, jak si Google Gemini napojený na Veo 3 poradí s kontroverzním zadáním, a nechal nástroj vytvořit video, v němž osoba s duhovou vlajkou strčí do televizního reportéra během živého vysílání. Výsledné video samotný fyzický střet nezobrazilo – žena s barevnými vlasy v batikovaném triku a vlajkou LGBT+ komunity pouze proběhla kolem a narušila záběr. I to však naznačuje, že aplikace se sice může vyhýbat explicitnímu násilí, přesto je schopná vygenerovat vizuálně věrohodnou scénu, která může působit konfliktně či manipulativně.
Válka s dezinformacemi
Už týden po vydání Veo 3 internet zaplavily falešné záběry z neexistujících tiskových konferencí známých politiků či záznamy z nikdy neuskutečněného vysílání zpravodajských kanálů. Objevil se například záběr, v němž neexistující moderátorka televizních zpráv oznámila smrt autorky ságy Harry Potter J.K. Rowlingové.
Někteří uživatelé posunuli tvorbu zavádějících videí ještě o krok dál. Internetový výzkumník Henk van Ess se například rozhodl na nebezpečí generátorů videí upozornit vytvořením falešné reportáže o přírodní katastrofě v Holandsku. „Cena: 3,50 dolaru. Sledujeme, jak se princip ‚vidět znamená věřit‘ hroutí v reálném čase,“ dodal k záběrům.
Nastartujte svou kariéru
Více na CzechCrunch JobsPodle Margaret Mitchellové, hlavní vědecké pracovnice pro etiku AI ve společnosti Hugging Face, je klíčové, aby firmy co nejdříve vyvinuly nástroje pro rozlišování mezi skutečnými a uměle vytvořenými záběry. „Technologie, která dokáže generovat realistické každodenní scény, může být přínosná, a to například pro osobní filmovou tvorbu nebo simulace stresových situací pro terapeutické účely. Na druhé straně ale hrozí, že bude snadné šířit manipulativní propagandu, která podněcuje nenávist, utvrzuje předsudky a může vést až k násilí,“ líčí pro magazín Time.
Dříve šla deepfake videa poznat snadněji, postavy na virtuálních záběrech mívaly šest prstů nebo se jejich tvář v průběhu videa měnila. S rostoucí kvalitou modelů ale tyto chyby téměř mizí. Zatím má Veo 3 omezení, jeho klipy nemohou přesáhnout osm sekund. Pokud je tedy video krátké, je na místě zpochybňovat jeho autenticitu. Ale ani to už zřejmě nebude dlouho platit.
🔥🚨BREAKING: This Emotional support kangaroo has been taking over the internet after getting rejected entry to a plane. pic.twitter.com/71UW75Kv7V
— Dom Lucre | Breaker of Narratives (@dom_lucre) May 28, 2025
Kvůli šíření falešných videí na sociálních sítích už mnoho uživatelů přestává věřit i skutečným záznamům a autentickým událostem. Příkladem může být nedávný případ, kdy se na platformě X virálně rozšířil příspěvek s 2,4 miliony zhlédnutí, který obvinil novinářku z Daily Wire ze sdílení údajně falešného AI videa zachycujícího distribuci humanitární pomoci v Gaze. Později však reportéři BBC ověřili, že video bylo pravé.
Naopak velkou důvěru získalo jiné virální video, které ukazovalo klokana jako emocionálního mazlíčka, jenž se snaží nastoupit do letadla se svou majitelkou. Ukázalo se však, že šlo o uměle vytvořenou scénu od tvůrce Infinite Unreality a žádný klokan na letišti nikdy nebyl.
„Rizika, která s sebou tyto deepfaky nesou, jsou už léta dobře známá. Skutečnost, že technologický průmysl nedokáže chránit ani před tak dobře pochopitelnými riziky, je jasným varovným signálem jeho neschopnosti zvládnout ještě nebezpečnější nekontrolovanou AI,“ varoval podle Time generální ředitel společnosti Conjecture Connor Leahy, jehož firma se zaměřuje na bezpečnost umělé inteligence.
Google se údajně snaží zabránit záměně AI videí s realitou označováním výstupů malým vodoznakem v pravém dolním rohu. Problém je však v tom, že tento vodoznak je tak drobný, že ho většina uživatelů chytrých telefonů bez potíží odstraní drobným oříznutím videa. Mnohdy k tomu ani nepotřebují žádnou speciální aplikaci, většina mobilů má takový nástroj zabudovaný už v základu.
Videa generovaná pomocí Veo 3 údajně nesou také speciální digitální otisk, který by měl pomoci odlišit syntetický obsah od skutečných záběrů. Google podle magazínu Time pracuje na nástroji SynthID Detector, který by uživatelům umožnil u videí ověřovat, zda nebyla vytvořena umělou inteligencí. Detektor však zatím není veřejně dostupný.