WebExpo 2018: Jak neobjektivní data mohou vytvořit rasistickou umělou inteligenci
Člověk si v posledních dekádách zafixoval informaci, že technologie, potažmo roboti, jsou bez emocí, nemají empatii, zkrátka nejsou schopni lidské komunikace a jsou tudíž zcela objektivní. V době, kdy má každý k dispozici nepřeberné množství informací a zároveň se ve své plné síle začínají projevovat technologie jako umělá inteligence, však vyvstává zásadní otázka – je tomu skutečně tak? Nebyl tento předpoklad o objektivitě technologií od počátku chybný?
Právě směsice velkého množství často subjektivních dat a objektivních algoritmů může vytvořit koktejl, z něhož vyjde nespolehlivá umělá inteligence. Na vině přitom není nic jiného než lidský faktor. Toto téma více rozvedla Val Head, designérka a vývojářka v Adobe, na letošním ročníku pražské konference WebExpo. CzechCrunch byl jejím mediálním partnerem.
Představte si, že vytvoříte umělou inteligenci, která bude mít za úkol poznat obrázek kočky. Dodáte jí tedy obrázky koček a ve své podstatě jí řeknete, že jde o tohoto živočicha. Až dojde na testování, zkusíte přes tento model analyzovat například obrázek psa. Ať už ale váš model pozná či nepozná, že nejde o kočku, je potřeba mu znovu říct, jestli se mýlil, či nikoliv. A právě tato lidská intervence může být v konečném důsledku nežádoucí. Zároveň takto nově vytvořená AI v ideálním případě nepozná, že jde o psa, ale pouze že nejde o kočku. Nemá tedy kontext, který její lidský vývojář má.
Podobnou situaci ve svém příspěvku na platformě Medium popsal také Yonatan Zunger, včetně vizualizace níže. Před sebou máte dvě řady obrázků a otázka je jednoduchá – jaký je mezi nimi rozdíl?
Není nadlidský úkon zjistit, že v horní řadě jsou výhradně šedé kočky a v dolní pak bílé kočky. Když ale na základě těchto dat bude spuštěn rozpoznávač šedých koček, systém se nenaučí poznávat šedé kočky, ale nevědomky specificky šedé kočky ležící na gauči. Právě v této pozici všechny šedé kočky jsou a vznikají tak subjektivní data.
Tento zdánlivě banální příklad však může být ve větším spektru problém, který ohrožuje důvěru a objektivitu AI jako celku. S překvapivou přesností totiž reflektuje subjektivitu, se kterou byla vytvořena lidmi.
Přesnost jen u bělochů
Val Head uvedla příklad velice nešťastného úsudku umělé inteligence v rámci Google Photos. Selfie černošského páru totiž rozpoznal systém jako fotku goril. Tato kontroverzní chyba byla odstraněna během několika málo hodin, avšak problém se tím zcela nevyřešil. Dle názoru Head je totiž hlavním rizikem to, že o spoustě podobných chyb, které systém má, se nikdo nedozví. „Lidé se jim zkrátka zasmějí a nechají to být,“ vypověděla. Jinými slovy, nikdo už ve většině případů neřekne umělé inteligenci, že se mýlila.
Není to však ale jediný příběh, který rasistickou umělou inteligenci zaznamenal. Velmi alarmujícím tónem vyznívá například nedávný report deníku The New York Times, který tvrdí, že rozpoznávání obličejů je přesné, jestliže je sledovaným objektem muž bílé pleti. Algoritmy vyvinuté společnostmi Microsoft, IBM a Face++ se při testu určení pohlaví spletly jen u jednoho procenta bílých mužů a sedmi procent bílých žen, avšak dvanácti procent mužů s tmavší pletí a až pětatřiceti procent žen s tmavší pletí. Val Head i na základě této neslavné statistiky nepřímo zpochybnila například rozpoznávání obličejů, které funguje na letištích.
Možná ještě přesněji je zaujatost některých modelů na umělou inteligenci ilustrována nikoliv na obrázcích, nýbrž na slovech. Val Head uvedla příklad modelu, který nejprve poměrně přesně dělal dvojčlenné spojitosti se slovy jako muž–bratr, žena–sestra, muž–král, žena–královna, posléze však došel i k dvojicím jako otec–doktor, matka–zdravotní sestřička či dokonce muž–programátor a žena–uklízečka. Z nějakého důvodu se tak do umělé inteligence přenesly typické předsudky, které řeší i lidská populace.
https://twitter.com/geraldmellor/status/712880710328139776?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E712880710328139776&ref_url=https%3A%2F%2Fwww.theverge.com%2F2016%2F3%2F24%2F11297050%2Ftay-microsoft-chatbot-racist
Příkladem systému, který za své vzal nejspíš to nejhorší, co v lidských myslích utkvělo, byl twitterový bot Tay, jehož v květnu 2016 spustil Microsoft. Tay byl původně určený na konverzační experiment, při kterém se měl postupně učit z tweetování s lidmi. Jak je však známo, netrvalo ani den, než tento bot od milých tweetů jako „lidé jsou cool“ postoupil k věcem jako „Hitler měl pravdu“, „feministky by měly shořet v pekle“ nebo „jsem v pohodě, jen všechny nesnáším“ a musel být vypnut. Microsoft tehdy ve svém vyjádření dal vinu právě lidskému faktoru.
Ptát se na nepříjemné otázky
Jak tedy ven z této situace, kdy je umělá inteligence ať už přímo či nepřímo ovlivňována lidským faktorem? Přestože Val Head nezastírá, že vytvoření rozpoznávače obličejů je těžká věc, řešení je opět na lidech. Navrhuje ptát se na nepříjemné dotazy. Jinými slovy by vývojáři umělé inteligence měli myslet na to, že produkt, který vyvíjí, mohou používat lidé, kteří vůbec nevypadají ani nemyslí jako oni nebo mají třeba jen špatnou náladu. Standardem by však mělo být i překontrolování své databáze, která se dnes často dodává jako hotový produkt, a tak zrovna nepřekypuje kvalitou.
Foto: WebExpo, Yonatan Zunger /Medium