Facebook díky umělé inteligenci odstranil 8 milionů příspěvků souvisejících se zneužíváním dětí

mark
0Zobrazit komentáře

Největší sociální síť světa Facebook, kterou měsíčně navštíví přes 2 miliardy unikátních uživatelů, pokračuje ve své snaze o co nejlepší moderaci obsahu a ochranu před závadnými příspěvky. Za poslední kvartál Facebook odstranil 8,7 milionu příspěvků, které se týkaly obtěžování nebo dokonce zneužívání dětí, především v souvislosti s nahotou či psychickým nátlakem.

O to víc po oznámení relativně vysokého čísla z úst šéfky bezpečnosti ve Facebooku, Antigone Davis, překvapilo, že 99 procent všech závadných příspěvků bylo odstraněno automaticky, s využitím pokročilé umělé inteligence. Na programech pro bezpečnost pracuje Facebook s bezmála 400 organizacemi. Mimo nutnosti být starší 13 let k samotné registraci na sociální síť jsou automaticky analyzovány veškeré fotografie a příspěvky a ty závadné jsou zasílány mezinárodní organizaci NCMEC.

Jednou z nejdůležitějších, ale zároveň mírně znepokojujících věcí, je i fakt, že Facebook zároveň monitoruje množství potenciálně nebezpečných soukromých konverzací a zastaví je ještě předtím, než dokážou dětem závažně psychicky ublížit nebo je donutit k nejrůznějším činům. Jistá odpovědnost by v tomto ohledu měla panovat i na straně rodičů, ale zabránit všemu pochopitelně nelze.

fb

Technologie samozřejmě není perfektní a v určitých případech musí stejně zasáhnout člověk, ale 99% úspěšnost u běžných fotografií či příspěvků značí, že se Facebook s umělou inteligencí dostal daleko. Někdy se totiž stane, že Facebook označí či smaže fotku, která pouze vypadá jako nevhodný obsah, ale ve skutečnosti je v pořádku. Těžko se také odlišují například umělecká díla nebo profesionální fotografie.

bbj12

Přečtěte si takéPodívejte se do nového luxusního interiéru byznysového letadla Boeing 737 BBJ MAXPodívejte se do nového luxusního interiéru byznysového letadla Boeing 737 BBJ MAX

Dalším zásadním problémem, a to nejen u Facebooku, jsou dnes živá videa, na kterých se již nesčetněkrát objevily sexuální motivy, nabádání k neonacismu či sebevraždě, stejně jako samotné sebevraždy a vraždy dalších lidí. Jde sice o krajní situace, ale v rámci živého streamu se jen těžko zachytávají a Facebook se tak jako tak musí z velké části spolehnout i na lidi. Ostatně jich na kontrolu obsahu najal po nedávných problémech několikanásobně více, než měl v loňském roce.

mark

V jejich souvislosti byl Facebook několikrát kritizován a dokonce žalován za to, že neposkytuje svým zaměstnancům, kteří schvalují závadný obsah, dostatečnou finanční i psychickou podporu a že to často vede k posttraumatickému syndromu. Mimo to se ovšem Facebook opravdu snaží, v prvním čtvrtletí například začal ve velkém mazat falešné účty, předělal většinu nástrojů pro kontrolu nastavení soukromí a také novou formu přezkoumání obsahu, který určil ke smazání.