Evropský výzkum férové umělé inteligence je pod taktovkou ČVUT. Zdejší výzkumníci hlídají 95 milionů

Z Fakulty elektrotechnické na ČVUT se budou kontrolovat grantové projekty, které řeší etiku umělé inteligence. Sama získala 15 milionů korun.

Jakub Mareček

Foto: Petr Neugebauer

Jakub Mareček z Centra umělé inteligence FEL ČVUT

Odemykáte svůj telefon pohledem do něj? Ještě před pár lety byla taková metoda spolehlivá výhradně pro muže bílé pleti. Umělá inteligence, která za systémem stojí, ostatní tváře nerozpoznávala. Nebyla na ně totiž zvyklá. Umělá inteligence vůbec nemusí být etická. A mnohdy taky není. Jednoduše proto, že lidé při jejím programování něco opomenou. Aby se to nedělo, rozdělila teď Evropská komise v přepočtu 95 milionů korun pro tříletý projekt AutoFair. Koordinovat se bude z Česka.

Hlavním řešitelem AutoFair je Jakub Mareček z Centra umělé inteligence na Fakultě elektrotechnické ČVUT. Ta z grantu dosáhne na 15 milionů korun – zbývajících 80 milionů korun si rozdělí dalších sedm členů konsorcia. Jde o vědce z prestižních univerzit včetně Imperial College London, izraelského technologického institutu Technion nebo Národní a kapodistrijské univerzity v Aténách. Partnerské instituce doplní ještě technologické firmy, které poskytnou potřebná data k modelování a ověří aplikovatelnost výsledků v praxi. Bude se jednat o nadnárodní společnosti i lokální startupy využívající umělou inteligenci (AI).

„Na FEL ČVUT jsme přišli s plánem, co zkoumat. Podali jsme jej na Evropskou komisi s mým jménem na titulní stránce. Finance jsou už rozdělené na přihlášce a FEL je bude přeposílat tak, jak je domluvené. Součástí koordinační role je také prezentace výstupů z projektu Evropské komise po další tři roky,“ popisuje Mareček.

Pokud jde o rozpoznávání obličejů mužů bílé pleti, problém postupem času vyšel najevo a podařilo se ho odstranit. Jenže jde o to, jaká omezení – která sami způsobili – lidé reálně odhalí. „Umělá inteligence má však řadu dalších použití, kde podobné etické problémy dodnes přetrvávají,“ vysvětluje naléhavost projektu jeho koordinátor Mareček z FEL ČVUT.

Umělá inteligence jako černá skříňka

Rozhoduje o stále důležitějších věcech. Umí odhalit věk, pohlaví a emoce lidí, někde tak předpovídá jejich chování. Je schovaná v algoritmech mnoha služeb na internetu i mimo něj, ale sídlí třeba i v samořídících autech. Hledá podvodníky ve finančních službách, třeba jen podle hlasu. Na základě předpovědí AI už několik policejních sborů světa zkoušelo předvídat zločiny. A podle jejího doporučení se určuje dokonce i přidělení či odmítnutí půjčky v bance.

Pokud bychom chtěli procesy umělé inteligence přirovnat k těm lidským, řekli bychom, že rozhoduje naprosto pragmaticky. Na základě dat, kterými ji lidé vybaví. A v tom je právě ten problém. Pokud ji výzkumníci představí, řekněme, třicet vražd, z nichž jich pětadvacet spáchali lidé černé pleti, bude si myslet, že jakýkoliv černoch je s vysokou pravděpodobností vrah.

Umělá inteligence může být rasistická, šovinistická nebo trpět jakýmikoliv jinými neduhy založenými – podobně jako u lidí – na předsudcích. Tedy v případě AI na neobjektivních datech. Navíc od chvíle, kdy systém lidé vybaví dostatečným množstvím dat, vlastně už nikdo neví, na základě čeho přesně se v každém jednotlivém případě rozhodla. Proto se nezřídka říká, že funguje jako černá skříňka, do jejíhož rozhodování nemáme vhled.

Cílem projektu AutoFair je, aby tyto problémy vymizely. Chce zaručit, že algoritmy umělé inteligence nebudou nikomu stranit. Nemusí to totiž být na první pohled vidět, ale jak na ČVUT vysvětlují: „Algoritmus může fungovat pro řadu lidí uspokojivě, ale pro některé může fungovat velmi špatně.“

Aby hodnotila férově

Jednou ze strategií, jak s tímto rizikem pracovat, je pečlivé nakládání s daty. Výběr dat pro učení systému musí být reprezentativní a nepřenášet nerovnosti ve společnosti do vývoje algoritmů. Opačnou strategií je důsledně vysvětlovat veřejnosti, jak AI vlastně funguje. A jaká jsou její omezení.

Projekt AutoFair chce oboje – vylepšit samotné algoritmy, ale zároveň i vzdělávat koncové uživatele. Opírá se proto o poznatky z počítačových a datových věd, teorie řízení, optimalizace a dalších vědních disciplín, včetně etiky a práva.

Výstupy projektu budou testovány na třech případových studiích průmyslového využití napříč třemi odvětvími. Chce se soustředit na automatizaci férového hodnocení při náboru zaměstnanců, odstranění genderové nerovnosti v reklamě a třetí oblastí je eliminace diskriminace klientů bank.

Věřím, že se výstupy projektu podaří promítnout také do plánované regulace umělé inteligence, kterou připravuje Evropská komise,“ dodává Mareček. Z Česka koordinovaná evropská výzva má označení HUMAN-01 a sešlo se do ní celkem 206 žádostí. Uspělo jich 46.

Iva Brejlová

Osoba, které se technologie a startupy vetřely do soukromého i pracovního života. Od té doby jimi žije.

Osoba, které se technologie a startupy vetřely do soukromého i pracovního života. Od té doby jimi žije.