Apple odkládá funkce pro ochranu dětí před sexuálním obsahem. Chce co nejlépe reagovat na ostrou kritiku ze šmírování
Apple před několika týdny představil nejkontroverznější funkci iOS za velmi dlouhou dobu – ochranu proti šíření sexuálně explicitního obsahu s dětmi (CSAM). Jelikož funkce má porovnávat digitální otisky fotografií v iCloudu uživatelů s databází známých CSAM, okamžitě se objevily obavy ze zneužití a osočení, že výrobce vytvořil zadní vrátka do svých operačních systémů. Firma se proto teď rozhodla spuštění nových funkcí odložit.
Podle oficiálního vyjádření to prozatím neznamená, že Apple nakonec nový systém pro identifikaci CSAM nenasadí. Má ho pouze upravit. „Na základě zpětné vazby od zákazníků, ochránců práv, expertů a dalších jsme se rozhodli, že v následujících měsících strávíme více času shromážděním podnětů a vylepšováním těchto prvků kritiky důležitých pro bezpečnost dětí předtím, než je vydáme,“ stojí v oficiálním vyjádření.
Apple na počátku srpna představil trojici nových funkcí pro ochranu dětí před sexuálním zneužitím. Jedna měla uživatele upozornit, pokud by se přes Siri nebo Safari pokusil vyhledat CSAM obsah. Druhá přímo v zařízení identifikovala potenciálně sexuální obrázky a varovala děti, když se jim je pokusil někdo poslat, nebo je naopak chtěly sdílet. Třetí pak měla bezpečně skenovat fotky a videa nahrávané do iCloudu, vytvářet k nim identifikační kódy (hashe) a ty porovnávat s databází známých CSAM materiálů.
Spolu s ohlášením funkcí Cookova firma detailně popsala, jak fungují, jak chrání soukromí uživatelů a jak se vyhýbají zneužití. Jelikož měla třetí zmíněná funkce například dokázat idenfitikovat i pozměněné obrázky, vytvářené kódy nebyly zcela přesné a umožňovaly tak falešné shody. Aby se v takovém případě okamžitě nespustilo ohlášení Applu, systém měl vyžadovat určitý vyšší počet shod, bez jehož dosažení by nebylo možné určit, kdo potenciální CSAM v iCloudu má.
Databáze, se kterou se mělo hashe porovnávat, pak patří dobře známé a spolehlivé americké neziskové organizaci NCMEC. I kdyby do ní ovšem třeba FBI propašovalo jiný obsah než dětskou pornografii, systém Applu na konci vyžaduje manuální ověření pracovníkem firmy, který v případě falešné shody žádné informace dále nepředá.