Mluvím s umělou inteligencí, nebo se svým šéfem? Nová doba přináší nové útoky, je třeba se připravit

Umělá inteligence s sebou nese řadu zásadních změn na poli kybernetické bezpečnosti. Takzvaný deepfake dostal nový rozměr, odhalit podvod je těžší.

Milan KubálekMilan Kubálek

AI/šéf

Foto: Midjourney/CzechCrunch

Umělá inteligence posouvá i možnosti kyberpodvodníků

Do jisté míry jsme se naučili být obezřetní před phisingovými útoky, které se provádí pomocí e-mailu. Co když vám ale zavolá třeba nadřízený a bude rychle potřebovat přístup k jistým citlivým údajům? Na telefonu vidíte jeho kontakt, slyšíte jeho hlas a vidíte také jeho obličej. Váš šéf navíc plynule reaguje na všechny dotazy a podněty. Zkrátka všechno vypadá normálně. Je to však opravdu váš nadřízený? Měli bychom zpozornět?

Ve skutečnosti to může být výtvor umělé inteligence. Moderní technologie na nás kladou stále vyšší nároky. Nástup umělé inteligence je obrovskou výzvou, zároveň s sebou ale nese nutnost větší obezřetnosti a opatrnosti. Odhalit falešného volajícího, který si s ní pomohl a není tím, za koho se vydává, je stále těžší.

Před námi totiž stojí nové typy útoků a podvodů, které sice vychází ze známých principů, ale jejich technologické provedení je na mnohem vyšší úrovni. Ta se navíc neustále zdokonaluje a posouvá. Bez kritického myšlení a základních znalostí je proto čím dál těžší rozeznat skutečnost od fikce či podvodu.

Obezřetnost proto je a bude na místě vždy, snad s výjimkou osobního hovoru se skutečným člověkem. Fyzické avatary, které jsou klonem skutečných lidí, totiž naštěstí ještě nemáme. Zatím, říká Milan Kubálek, odborník na umělou inteligenci ze společnosti Trask.

***

Obrana v době umělé inteligence

Doba umělé inteligence je bezpochyby revoluční. Z pohledu ochrany před kybernetickým útokem se však pro nás, uživatele, revoluce nekoná, je třeba se posunout pouze evolučně.

Kupříkladu metoda Zero Trust „Never Trust, Always Verify“ je mezi zásadami kybernetické bezpečnosti dlouhou dobu. Pokud nechceme být pro útočníky snadným cílem, je třeba tuto a další metody důrazně dodržovat. Jak na to?

Falešný videohovor za pomoci AI můžeme odhalit například banálním dotazem na nějakou aktuální skutečnost. Pokud máme mít hovor s osobou, kterou známe, můžeme se zeptat na nějaký fakt, který není veřejně publikován. Jestliže máme silné podezření, můžeme hovor ukončit a osobě zavolat zpět.

Neosobní komunikace může probíhat skrze e-mail, chat nebo telefonický hovor. V tomto případě obecně platí, že pokud nemáme stoprocentní jistotu, kdo s námi skutečně komunikuje, nikdy nesdělujeme žádné osobní informace a už vůbec žádná citlivá data.

Někdy se útoky můžou tvářit prostě jako zábava. Co může být nebezpečného na tom, že si zkusím, jak bych vypadal či vypadala jako známá panenka Barbie nebo její protějšek Ken? Ukázalo se, že jen minimum uživatelů zjišťovalo, jaké informace o sobě použitím aplikace poskytnou úplně cizím lidem a co s nimi může provést umělá inteligence. Před aplikacemi varovaly úřady pro kybernetickou bezpečnost řady zemí. Tvůrci aplikace nikde nespecifikovali, co s nasbíranými daty udělají.

Jednoduchým příkladem je situace, kdy obdržíme sms zprávu od přepravní společnosti s číslem zásilky a odkazem na její sledování. Neklikáme na odkaz, ale otevřeme online sledování zásilky dané přepravní společnosti, které jednoduše online vyhledáme a použijeme číslo zásilky uvedené ve zprávě. V případě fiktivní zásilky, a tedy podvodu, pod daným číslem nenajdeme adresovanou zásilku.

Obrana proti kybernetickým hrozbám samozřejmě nestagnuje. Technologie umělé inteligence nám totiž může skvěle posloužit i z druhé strany. Díky AI se velice efektivně zvyšuje úspěšnost detekce a zmírnění rizika kybernetických útoků.

Jak fungují falešné videohovory?

Z pohledu technologie stojí za falešnými hovory generativní adverzní sítě – typ modelů hlubokého učení složený ze dvou entit – generátoru a diskriminátoru. Úkolem generátoru je naučit se nahrazovat obličej podvodníka na videu tváří, která je dané osobě dobře známá. Typicky se jedná o šéfa, kolegu v práci nebo kamaráda.

Cílem je, aby diskriminátor nebyl schopen rozeznat rozdíl mezi reálnou a podvrženou tváří na videu. Ačkoliv se tyto modely výrazně posouvají kupředu zejména s rozvojem generativní umělé inteligence, stále mají své slabiny, které můžeme při odhalování falešných videohovorů využít.

Za prvé – vyžadují vysoký výpočetní výkon. Pro generování falešného videa ve vysoké kvalitě a v reálném čase je nutné mít k dispozici specializované výpočetní stanice s výkonnými grafickými kartami. Ceny těchto stanic se mohou pohybovat v řádu milionů korun dle výkonu grafických zdrojů.

kubálek

Foto: Trask

Milan Kubálek je odborník na umělou inteligenci ve společnosti Trask

Alternativa v podobě pronájmů těchto zdrojů od poskytovatelů cloudových služeb je lehce odhalitelná. Samozřejmě za předpokladu, že podvodník nedisponuje specializovanými znalostmi v této oblasti. Z těchto důvodů proto útočníci využívají spíše videa ve výrazně nižší kvalitě, která jsou na první pohled rozmazaná.

Za druhé – pro vytvoření uvěřitelného falešného videa je nutné velké množství fotek nebo videí napodobované osoby ve vysoké kvalitě. Proto můžeme vidět mnoho ukázek na tvářích celebrit a známých osobností, kde jsou tyto podklady veřejně dostupné.

S rozšířením sociálních sítí je však stále jednodušší získat data i o „obyčejném“ člověku. Stále ale platí, že čím méně kvalitních vstupů podvodník má, tím větší úsilí musí vynaložit, aby podvodné video vypadalo reálně. Mezi standardní neduhy podvodných videí patří například „plastická“ mimika tváře, neproporcionální symetrické rysy (levé ucho výrazně jiné než pravé) nebo šumění v okolí obličeje.

Trask

Trask je česká technologická společnost, která od roku 1994 pomáhá rozvíjet…

Jako každá technologie má i umělá inteligence dobré a špatné uplatnění. Dokáže výrazně zlepšit kvalitu podvodných videí, může ale také přispět k samotné ochraně před nimi. Od roku 2019 funguje iniciativa předních technologických firem a institucí jako Facebook, Microsoft nebo řady světových univerzit, která se soustředí na podporu vývoje nástrojů pro odhalování falešného obsahu na internetu.

Jaké jsou další příklady zneužití

Kybernetické podvody můžeme rozdělit do dvou hlavních kategorií:

  • Interaktivní, které jsou typicky cílené na konkrétní osobu, s níž je vedena komunikace s cílem přesvědčit ji k okamžité konkrétní akci, například předat informaci. Jsou potenciálně velmi nebezpečné, zejména pokud má útočník detailní znalosti o konkrétní osobě a jejím okolí.
  • Ovlivňující, které jsou typicky směřované na skupinu osob s cílem ovlivnit názor napadených, například vybrané skupiny voličů před volbami. Tato kategorie je nebezpečná zejména v okamžiku, kdy je její distribuce správně načasovaná – nejúspěšnější útoky jsou koordinované, fungují jako kampaně, které na sebe navazují a doplňují se navzájem.

Už dnes funguje dezinformační scéna, které přitom k cíli ovlivnit názor lidí mnohdy stačí textové informace. Využívá ale i takzvané deepfakes, tedy uměle vytvořené fotky či video. Lze očekávat obrovský nárůst obrazového obsahu.

Čeho tak může hacker (což může být prakticky kdokoliv) docílit? Zejména ovlivnění voleb i referend či změny nálady a preferencí lidí. To vede k polarizaci společnosti, což se dnes již intenzivně děje pomocí sociálních sítí. Pomocí umělé inteligence se to však celé posouvá na novou úroveň. S novými technologiemi lze nahrazovat nebo obejít kontroly založené na biometrii, tedy rozpoznávání hlasu či tváře, tedy například FaceID.

CC Premium

Partnerem článku je Trask

Trask

Trask je česká technologická společnost, která od roku 1994 pomáhá rozvíjet…

Klíčoví lidé

trask-filip-tomanek

Filip Tománek

COO, Partner