Spolehlivou dezinformaci vytvoříte i bez umělé inteligence, říká expertka. Teď jich ale může být více

Mnozí varují, že AI může zaplavit internet lživým obsahem. Veronika Batelková ale klidní vášně. Oklamat lze i mnohem jednodušeji.

Jiří SvobodaJiří Svoboda

v-batelkovaRozhovor

Foto: Archiv VB / CzechCrunch

Expertka na dezinformace Veronika Batelková

0Zobrazit komentáře

Sociálními sítěmi nedávno prolétl snímek s hustým černým kouřem v okolí Pentagonu, sídla amerického ministerstva obrany, který měl zachytit svědek jen pár vteřin po domnělém výbuchu. Jenže byl falešný a jak se později ukázalo, velmi pravděpodobně vytvořený v generátoru umělé inteligence. Než byla ale zpráva vyvrácena, stihla na chvíli ovlivnit i pohyb burzovního indexu S&P 500. Je to předzvěst větší záplavy falešných zpráv vytvořených umělou inteligencí, nebo jen ojedinělá událost?

Před tím, že umělá inteligence může přispět k zaplavení online prostoru dezinformacemi, varují i technologičtí a političtí lídři. Byl to ostatně i jeden z bodů nedávné výzvy na pozastavení vývoje nových systémů, kterou podepsal například i Elon Musk. Na totéž téma se vyptávali američtí zákonodárci i šéfa společnosti OpenAI Sama Altmana při slyšení v Kongresu a se šéfem Googlu Sundarem Pichaiem o něm hovořila i eurokomisařka Věra Jourová.

Otázka je, jestli se s generativními nástroji umělé inteligence v dezinformačním prostoru nakonec něco skutečně změní. Jak totiž připomíná expertka na dezinformace a mediální vzdělávání Veronika Batelková ze spolku Zvol si info, posunout veřejné dění se dá i mnohem snadněji. „I když je dnes vytvořit audiovizuální dezinformaci mnohem jednodušší, stále je to práce navíc vytvářet zadání pro generování obrázku či videa do nástrojů jako Dall-E, když jsou lidé schopni uvěřit i prosté textové informaci,“ říká v rozhovoru pro CzechCrunch.

Právě čtete upravenou verzi rozhovoru Veronikou Batelkovou, který jsme natočili pro podcast Weekly. Společně s dalšími zprávami ho vydáváme každou neděli.

Více

V případě snímku Pentagonu se obratem prokázalo, že je zfalšovaný, ale přesto dokázal hnout s významným akciovým indexem. Fact-checking tedy funguje, ale funguje dost rychle?
Obecně je fact-checking důležitý nástroj pro odhalování dezinformací, ale rozhodně ne všespásný. Lži se zpravidla šíří rychleji než pravda, protože jsou atraktivnější a mají větší potenciál na reakce na sociálních sítích – to je mechanismus, který dokázaly i kvantitativní studie. Fact-checking tím pádem nebude nikdy dostatečně rychlý na to, aby se zabránilo alespoň nějakému šíření dezinformace. Je tak třeba nejen její rychlá detekce, ale zároveň aktivní spolupráce sociálních sítí, posilování kvalitní žurnalistické práce a dostatečná edukace společnosti.

Je tedy ve věku umělé inteligence fact-checking ještě více bezzubý nástroj, než byl doposud?
Neřekla bych bezzubý, ale určitě s umělou inteligencí získávají dezinformace větší náskok, než měly doteď. Je to ale oboustranný proces, protože nám naopak umělá inteligence i může pomoci dezinformace detekovat.

Nicméně v tomto případě bylo odhalení pořád precizní lidskou prací novináře z Bellingcatu, ale než na něj upozornil, zahýbal zmíněnými akciemi. Co to o naší situaci říká? 
Pro mě tento případ neukazuje nic moc nového, protože se zabývám dezinformacemi už dlouho a vím, že jeden malý žvást dokáže zmást masy lidí. Nicméně tento případ určitě ukazuje, že nepravdivý obsah generovaný AI může mít skutečný vliv na svět a tržní aktivity. I to už ale známe z minulosti. Dezinformace už několikrát dokázaly pohnout trhem a veřejným míněním a ani nemusely být podložené nějakým obrázkem.

Co se týče obsahu generovaného umělou inteligencí, tak jsme zatím viděli hlavně odlehčenou verzi: nepravou fotografii americké zpěvačky Seleny Gomez z charitativního večera Met Gala, kterého se vůbec nezúčastnila, nebo komický snímek papeže Františka v luxusní péřové bundě. Zůstaneme ale jen u vtípků?
Nemám samozřejmě věšteckou kouli, ale myslím, že u vtípků nezůstane. Je fakt, že podobně alarmistická, jako jsou teď vyjádření o generativní AI, byla už v minulosti ta o deep fakes. Byly zmiňovány jako velké riziko pro americké prezidentské volby, a nakonec ve větší míře použity nebyly. Je to proto, že stačí napsat jeden tweet, dát do něj prostou informaci – a lidé jsou schopni jí věřit. Takže proč se vlastně plácat s videem? S generativním AI je to stejné. Optikou cena–výkon to zkrátka nedává příliš smysl.

Děje se tedy už i to, že by pomocí AI vznikaly zásadní dezinformace? Jen je třeba nevidíme?
Myslím, že děje, ale ne až tak masově. I když je dnes už vytvořit audiovizuální dezinformaci mnohem jednodušší, stále je to práce navíc vytvářet zadání pro generování obrázku či videa do nástrojů jako Dall-E, když jsou lidé schopni uvěřit i prosté textové informaci.

Když ale je k dezinformačnímu tweetu přidaná fotka nebo video, tak mu to dodá na důvěryhodnosti, ne?
To určitě. Ale zase to není něco, co by se doteď nedělo. Dezinformátoři obecně používají obrázky, které jsou nějak zmanipulované anebo jsou dokonce zcela pravé, ale použité v jiném kontextu, než pro jaký vznikly. Obecně vypráví příběh a dodávají emoce, ale zásadní je stále ta informace samotná – ať už je podaná jakkoliv.

Před použitím AI v dezinformacích varují mnozí i kvůli tomu, že hrozí ve větší kvantitě a míře personalizace. Třeba vlastně bude úplně jednoduché, aby důchodce dostal řetězový mail upravený na míru, a dezinformátora to nebude stát téměř nic navíc. Není tohle přece jen velké riziko?
Jen detail k důchodcům – určitě to není tak, že by se dezinformace týkaly jen jich, jsme vůči nim náchylní všichni a přijde mi důležité, aby to zaznělo. Nicméně ano, personalizaci a větší kvantitu dezinformací vnímám jako ten největší problém, který nám může umělá inteligence přinést. Pokud daný nástroj bude vědět, pro koho přesně dezinformaci dělá, tak ji bude moci vytvářet přesně na míru a bude cílenější. Ostatně informací o nás k tomu sbírají sociální sítě dostatek a děje se to již s personalizovaným obsahem a reklamami.

Asi je otázka, které nástroje to také umožní. Třeba nová funkce ve Photoshopu dovolí přidávat objekty do fotografií na jeden klik. Příklad – máte fotku noční oblohy, napíšete, že chcete přidat polární záři, a program to bezchybně udělá. Otázka zní, je tohle ještě etické použití umělé inteligence?
To, co je etické, vždycky záleží na kontextu a účelu dané umělé inteligence. Takový nástroj může být zajímavý pro uměleckou tvorbu a inovace, ale na druhé straně i pro manipulování. Myslím si ale, že je to tak s každou technologií, nejsou nikdy buď dobré, nebo špatné. Etičnost ale vnímám třeba v přiznanosti, transparentnosti použití umělé inteligence.

To ale tedy předpokládáme, že lidé budou její použití skutečně přiznávat.
Samozřejmě dezinformátoři to dělat nebudou. Ale myslím si, že společnost bude klást nároky na média, aby použití AI přiznávala. Proto mi přijde důležité klást důraz na kvalitní žurnalistickou práci a edukovat společnost v tom, jak funguje. Aby třeba porozuměla rozdílu mezi jednotlivcem, který může napsat, co chce, a institucí, která má nějaké kontrolní mechanismy nebo etické kodexy.

Už se objevují i nástroje, které mají transparentnosti pomoci. Google oznámil, že bude ve výsledcích vyhledávání označovat obrázky vytvořené umělou inteligencí. Je tohle nástroj, který by mohl zmatení z ní trochu snížit?
Je to krok a nástroj, který má pozitivní intence. Ale jak už jsem zmínila, musí jít ruku v ruce s dalšími, jako je posilování kritického myšlení a mediální či informační gramotností. Zároveň mi přijde důležité řešit strukturální problémy společnosti, protože to, jak ta naše funguje, vytváří perfektní prostředí pro šíření dezinformací.

Myslím si, že společnost bude klást nároky na média, aby použití umělé inteligence přiznávala.

Jaké strukturální problémy? Můžete to rozvést?
Myslím tím nerovnosti ve společnosti, rozevřené sociální nůžky a především, že lidé se nechtějí bavit s lidmi s jinými názory a životními kontexty. Vnímám to na workshopech, které dělám ve firmách. Ne všichni, ale spousta lidí říká „my těm dezinformacím nevěříme, ale naše okolí ano, tak se nimi radši nebavíme a najdeme si kamarády jinde.“ Nedokážeme si naslouchat a to vnímám jako společenskou krizi, lidé se zavírají do sociálních bublin. Z toho pak plynou i další problémy a ve výsledku jsou pak některé takové bubliny náchylné k rychlým, jednoduchým vysvětlením, než aby se zabývaly hlubší problematikou.

Minimálně část politické reprezentace už problémy s AI vnímá a rýsují se její regulace. Co jsou principy, které by v ní podle vás měly být?
Může se zdát, že otázky jako zda má mít umělá inteligence práva, patří jen na akademickou půdu, kde se o nich bude bavit pár intelektuálů. Přijde mi ale důležité o podobných tématech bavit šířeji, abychom je pak neřešili pět minut po dvanácté. Myslím, že směrnice by se měly vypořádávat s otázkami o transparentnosti AI systémů, ochranou soukromí, odpovědností za škody nebo detekcí a kontrolou šíření dezinformací generovaných umělou inteligencí.

Abychom možná jen nestrašili, tak vidíte ve větší popularizaci a větším množstvím obsahu generovaného umělou inteligencí i nějaká pozitiva?
Ale jistě. Vnímám to jako výzvu, která může pomoci se společnosti zase někam posunout. Říkám si, že čím běžnější bude umělou inteligencí generovaný obsah, tím budou lidé pozornější vůči tomu, co čtou a čemu věří. Ale musí to jít ruku v ruce s edukací, zvyšováním povědomí i dalšími způsoby, jak se dezinformacím bránit.