Velké otázky o umělé inteligenci čekají na své odpovědi. Technologie předběhla společnost, říká Šafář

Umělá inteligence produkuje výsledky, které často jako lidé nedokážeme odůvodnit. Kdo za ně má v takových případech zodpovědnost?

Jiří SvobodaJiří Svoboda

safar

Foto: CzechCrunch

Luděk Šafář z konzultantské společnosti SAS

0Zobrazit komentáře

Umělá inteligence zaplavila v posledních měsících online prostor, ovšem na pozadí nespočtu návodů, jak používat generátor textů ChatGTP nebo fotek Midjourney, leží mnohem větší otázky. Takové, které mají dopad na životy všech. Jak už to totiž u nových technologií bývá, vývoj umělé inteligence předbíhá společenská pravidla nebo ustanovení.

Až když se kritická masa s umělou inteligencí seznámila, začínáme se ptát třeba na to, jestli bychom neměli vědět více o tom, jak tyto systémy dospívají ke svým výsledkům. Nebo jestli by na něco měly být vůbec používány. Anebo jestli nezastavit jejich vývoj. I tyto otázky by se daly shrnout pod pojem demokratizace umělé inteligence.

Právě tou se zabývá Luděk Šafář z konzultantské společnosti SAS, který byl hostem v další epizodě TechCastu, technologického podcastu CzechCrunche, jejž moderovali Ladislav Vašek a Tomáš Papež. Zhlédnout jej můžete v přehrávači níže.

Pod demokratizací umělé inteligence, kterou řeší Šafář i se svými klienty, se podle něj skrývají dvě části. Jak už samotný, ryze filozofický původ termínu naznačuje, první je otázka, jak dostat umělou inteligenci ke všem a zajistit k jejímu používání rovné podmínky. To je v principu jednoduší úkol než ten, který představuje druhá část – vytvoření určitých pravidel a společenského úzu k jejímu používání.

„Doteď se u umělé inteligence ve velkém mluvilo o zpřístupňování, to bylo v podstatě jediné téma. S nástupem ChatGPT se ale tématem stává její regulace. Hodně pracujeme s bankami, které zpracovávají citlivá data. A pokud banka používá umělou inteligenci jako nástroj a zpětně není schopna dohledat, proč se AI rozhodla, jak se rozhodla, tak je to problém,“ podotýká Šafář. Jinými slovy – jedním z klíčových problémů nejvyspělejších systémů umělé inteligence je jejich neprůhlednost, kterou přiznávají i jejich tvůrci.

Šafář ale také připomíná, že stále například není vyřešený ani problém odpovědnosti. V současném legislativním rámci za vše, co umělá inteligence vyprodukuje, nese odpovědnost firma. Ovšem tím se můžeme snadno dostat do situace, kdy bude stíhána za výplod algoritmu, který ve skutečnosti nijak neovlivnila – respektive neví, jak jej ovlivnila.

Společnost SAS není v řešení této problematiky nováčkem. Existuje již čtyřicet let a začínala na statistické analýze dat zdravotnických firem. Jelikož umělá inteligence je v podstatě převlečená statistika, už tehdy mohli inženýři narážet na řadu problémů, které byznysy, jež s umělou inteligencí pracují, řeší dodnes – třeba rasovou, genderovou či jinou zaujatost algoritmů. To je pochopitelně u citlivé agendy, jako je zdraví, zásadní problém.

google-pichai

Přečtěte si takéKonkurence pro ChatGPT? Google uvádí svého chatbota BardGoogle představil světu svého chatbota Bard. Pro země EU ale dostupný není

A jeho řešení? „Zaujatost je zděděná z trénovacích dat. Zabránit jí můžeme tím, že budeme kontrolovat data, z nichž se model učí. S firmami tak ve velkém řešíme, jak zajistit data, která v sobě toto nemají,“ vysvětluje konzultant. Jinými slovy, jestliže firmy chtějí být schopné vysvětlit, jak umělá inteligence dospěla k odpovědi, musí zároveň mít plnou kontrolu nad vstupy.

Z etického pohledu by tak mohl být problém i například připojení ChatGPT na internet. V tu chvíli má totiž tvůrce (v tomto případě Microsoft, který službu integroval do svého vyhledávače Bing) jen pramalou šanci výsledky modelu vysvětlit. Zároveň ale omezení jen na striktně kontrolovaná data výrazně sníží schopnosti takového modelu – a je otázka, k čemu by vlastně v tu chvíli byl.

„Neuronová síť je z podstaty pravděpodobnostní model, proto jsme tak ohromení její dobrou kvalitou. Takže firmy se teď chystají použít její logické schopnosti, ale dotrénují ji na vlastních datech. Tento proces pak zaručí, že výsledek bude blíže očekávání firmy,“ vysvětluje Šafář.

Ani tak se ale pochopitelně nelze zbavit takzvaných halucinací umělé inteligence – tedy situací, kdy si jen částečně průhledný systém začne vymýšlet. Je to jeden z nejaktuálnějších problémů, technologické řešení na něj zatím nemáme, a proto i Šafář firmám doporučuje, aby umělou inteligenci používaly tam, kde je určitá tolerance k chybám a nepřesnostem.

Nenechme se však mýlit. Zatímco v geekovských kruzích je umělá inteligence téma už celé měsíce, velké společnosti se teprve pomalu adaptují. Datovou analytiku a umělou inteligenci vnímají mnohé z nich jako úzkou oblast. Zpřístupnění těchto technologií je tak téma, které ve velkém konzultanti řeší.

Od standardizovaných řešení jsme ale podle Šafáře v oblasti firemního využití umělé inteligence ještě daleko. Je to podle něj stejný životní cyklus, jakým si prošly cloudové technologie – týmy je nejdřív zkoušely, často každý přes jinou službu, data byla ve finále rozesetá na několika místech a vznikal těžko napravitelný nepořádek. S umělou inteligencí je to teď podobné.

Sedmnáctý díl TechCastu si můžete pustit na SpotifyGoogle PodcastechApple Podcastech nebo na YouTube. Dozvíte se v něm také:

  • Jak AI ovlivní konzumaci online obsahu.
  • Proč jsou firmy ve vnímání AI často krátkozraké.
  • Čím chce SAS nepřímo zasáhnout do připravované regulace AI.
  • Co vše se skrývá za holistickým pohledem na AI.

Diskuze (0)

Novinka

Anonym