Facebook díky umělé inteligenci odstranil 8 milionů příspěvků souvisejících se zneužíváním dětí
Největší sociální síť světa Facebook, kterou měsíčně navštíví přes 2 miliardy unikátních uživatelů, pokračuje ve své snaze o co nejlepší moderaci obsahu a ochranu před závadnými příspěvky. Za poslední kvartál Facebook odstranil 8,7 milionu příspěvků, které se týkaly obtěžování nebo dokonce zneužívání dětí, především v souvislosti s nahotou či psychickým nátlakem.
O to víc po oznámení relativně vysokého čísla z úst šéfky bezpečnosti ve Facebooku, Antigone Davis, překvapilo, že 99 procent všech závadných příspěvků bylo odstraněno automaticky, s využitím pokročilé umělé inteligence. Na programech pro bezpečnost pracuje Facebook s bezmála 400 organizacemi. Mimo nutnosti být starší 13 let k samotné registraci na sociální síť jsou automaticky analyzovány veškeré fotografie a příspěvky a ty závadné jsou zasílány mezinárodní organizaci NCMEC.
Jednou z nejdůležitějších, ale zároveň mírně znepokojujících věcí, je i fakt, že Facebook zároveň monitoruje množství potenciálně nebezpečných soukromých konverzací a zastaví je ještě předtím, než dokážou dětem závažně psychicky ublížit nebo je donutit k nejrůznějším činům. Jistá odpovědnost by v tomto ohledu měla panovat i na straně rodičů, ale zabránit všemu pochopitelně nelze.
Technologie samozřejmě není perfektní a v určitých případech musí stejně zasáhnout člověk, ale 99% úspěšnost u běžných fotografií či příspěvků značí, že se Facebook s umělou inteligencí dostal daleko. Někdy se totiž stane, že Facebook označí či smaže fotku, která pouze vypadá jako nevhodný obsah, ale ve skutečnosti je v pořádku. Těžko se také odlišují například umělecká díla nebo profesionální fotografie.
Dalším zásadním problémem, a to nejen u Facebooku, jsou dnes živá videa, na kterých se již nesčetněkrát objevily sexuální motivy, nabádání k neonacismu či sebevraždě, stejně jako samotné sebevraždy a vraždy dalších lidí. Jde sice o krajní situace, ale v rámci živého streamu se jen těžko zachytávají a Facebook se tak jako tak musí z velké části spolehnout i na lidi. Ostatně jich na kontrolu obsahu najal po nedávných problémech několikanásobně více, než měl v loňském roce.
V jejich souvislosti byl Facebook několikrát kritizován a dokonce žalován za to, že neposkytuje svým zaměstnancům, kteří schvalují závadný obsah, dostatečnou finanční i psychickou podporu a že to často vede k posttraumatickému syndromu. Mimo to se ovšem Facebook opravdu snaží, v prvním čtvrtletí například začal ve velkém mazat falešné účty, předělal většinu nástrojů pro kontrolu nastavení soukromí a také novou formu přezkoumání obsahu, který určil ke smazání.