Pentagon nevybuchl. Falešný snímek ale vystrašil akcie velkých firem, nejspíš je od umělé inteligence
Incident ilustruje obavy expertů z oboru umělé inteligence, že obrazové a textové generátory mohou výrazně zjednodušit šíření dezinformací.
Do vzduchu se valí černý kouř, pravděpodobně chvíli po výbuchu. Podle prvních zpráv to měl být záběr exploze nedaleko Pentagonu, sídla amerického ministerstva obrany. Žádný výbuch ale nebyl. Ukázalo se, že fotografie byla falešná, pravděpodobně vytvořená obrazovým generátorem poháněným umělou inteligencí. Měla ale reálné následky, v reakci na zprávu z pondělního rána totiž nakrátko klesl prestižní akciový index S&P 500. Událost tak může dávat za pravdu některým expertům, kteří varují před negativními dopady této technologie.
Že u Pentagonu nic nevybuchlo, agentuře Bloomberg potvrdil velící důstojník, který v budově amerického ministerstva obrany pracuje, i místní policie. Falešná fotografie nicméně způsobila krátký pokles indexu S&P 500, který zahrnuje akcie pěti set největších na burze obchodovaných podniků v USA. Jeho hodnota v pondělí v bezprostřední reakci na zveřejnění fotografie spadla o tři desetiny procenta. Když se přišlo na to, že je záběr nepravý, hodnota se opět vyhoupla na původní úroveň.
Podle Bloombergu se falešný snímek nejprve objevil na Facebooku. Je na něm vidět velký oblak kouře, který autorský profil na sociální síti lokalizoval na místo u Pentagonu ve Washingtonu. Fotografie se podle Blooombergu rychle začala šířit na Twitteru, kde ji převzaly účty s miliony sledujících včetně ruské státní stanice RT nebo finančního webu ZeroHedge, který má u svého profilu modrou fajfku značící ověřeného uživatele prostřednictvím placené služby Twitter Blue.
Na to, že je snímek podezřelý, upozornil ale například analytik Nick Waters z investigativního serveru Bellingcat. „Podívejte se na průčelí budovy a na to, jak plot splývá se zábranami proti davu,“ uvedl na Twitteru s tím, že navíc neexistují žádné další záběry nebo jiná svědectví, které by pravost události potvrdily.
Confident that this picture claiming to show an “explosion near the pentagon” is AI generated.
Check out the frontage of the building, and the way the fence melds into the crowd barriers. There’s also no other images, videos or people posting as first hand witnesses. pic.twitter.com/t1YKQabuNL
— Nick Waters (@N_Waters89) May 22, 2023
Ačkoli původ obrázku zůstává nejasný, spekulace, že byl vytvořen umělou inteligencí, ilustrují, že tato technologie by mohla vést ke snadnější tvorbě a rychlejšímu šíření falešných zpráv. Jak před pár měsíci v souvislosti s novou generací obrazového generátoru Midjourney uvedl vývojář známého herního studia Naughty Dog Del Walker, na falešné obrázky se sice nenachytá každý, zejména pokud se na daný snímek zadívá na delší dobu, na internetu ale lidé většinou příliš času zkoumáním jednotlivých vizuálů netráví.
Jak obtížně lze někdy rozeznat pravé fotografie od výtvorů nejnovějších verzí obrazových generátorů, to ukázala třeba i nepravá fotografie americké zpěvačky Seleny Gomez z charitativního večera Met Gala, kterého se však vůbec nezúčastnila, nebo snímek papeže Františka v luxusní péřové bundě.
Před možnými negativními dopady nástrojů umělé inteligence, jako je obrazový systém Midjourney, nebo textové programy typu ChatGPT, nedávno varovaly tisíce expertů právě z oboru AI. Byl mezi nimi třeba Elon Musk, výzvu pozastavit vývoj těchto programů podepsal i technický ředitel českého startupu Rossum Petr Baudiš, který své obavy nedávno popsal pro CzechCrunch.