Apple se brání kritice ze šmírování uživatelů. Odmítneme identifikovat cokoliv kromě zneužití dětí, říká
Apple se pokusil udělat dobrou věc, když před několika dny představil systém na vymycování sexuálních záznamů dětí (CSAM). Mnozí odborníci na digitální bezpečnost nebo organizace pro ochranu soukromí ale jeho záměr začali okamžitě ostře kritizovat. Skenování fotek uživatelů, jakkoliv anonymizované, podle nich může vést ke katastrofickým scénářům. Apple si ale zatím stojí za svým a v novém dokumentu ujišťuje, že zneužití systému nikdy nedopustí.
Na část svého webu, která se zabývá novými technologiemi pro ochranu dětí, teď firma doplnila sekci Často kladených otázek (FAQ), ve které se snaží na pravou míru uvést některá nedorozumění. Vedle toho jsou pak prohlášení, kterým nejspíš i nadále zůstane aura kontroverze. Nestojí totiž na technologickém řešení, ale hlavně slibech a ujištěních. U nejproblematičtějších aspektů systému pro identifikaci CSAM jim ani nic jiného nezbývá.
Nový systém Applu pro ochranu dětí zahrnuje tři hlavní části, které jsme blíže popsali v předchozím článku. Jedna z nich se zaměřuje na výsledky hledání a Siri, zobrazující upozornění v případě hledání potenciálně závadného sexuálního obsahu. Druhá je spojená s aplikací Zprávy – po aktivaci funkce dostanou děti mladší 13 let a jejich rodiče upozornění při přijetí nebo odesílání explicitních obrázků či videí. Ani v jednom ze dvou případů se nenaruší šifrování a Apple se o ničem nedozví.
Případné informování Applu a následně bezpečnostních složek je naopak zásadní při třetí představené funkci, která se týká lidí používajících iCloud pro zálohu galerie. Pro každou fotku a video se před nahráním do cloudu přímo v zařízení vytvoří unikátní identifikační kód, z něhož nelze zpětně získat původní soubor. Tento kód, tzv. hash, se pak porovná s hashi vytvořenými z databáze známých CSAM materiálů od centra National Center for Missing and Exploited Children (NCMEC).
Pokud nastane shoda, daný obrázek dostane speciální značku a spolu s ní se nahraje na iCloud. Apple je o všem informován až v případě, že se takových shod u jednoho uživatele identifikuje větší množství – dříve to technologicky není možné. Záležitost pak dostane na starost zaměstnanec firmy, který manuálně vyhodnotí, zda se opravdu jedná o závadný obsah a ne jen náhodnou shodu. Taková se má objevovat pouze jednou v bilionu případů ročně.
Jako největší problém funkce pro odhalování CSAM materiálů kritici vidí obsah databáze, se kterou se fotografie uživatelů porovnávají. Ačkoliv nikdo bez přístupových údajů k danému účtu nemůže získat přístup k jiným souborům než těm se stejným hashem jako obsah databáze, tím může být teoreticky cokoliv.
Například organizace EFF upozornila na jednu konkrétní databázi, která původně také sloužila k identifikaci CSAM materiálů. Postupně se ale do ní zcela netransparentně začaly přidávat i další, jež byly spojené s terorismem nebo jinými záznamy „nevyhovujícího“ chování. Pokud by tedy například Čína donutila Apple svůj systém napojit na podobnou, státem kontrolovanou databázi, mohla by iPhony využívat jako „práskače“ třeba pro protestující v Hongkongu.
Odmítneme identifikovat cokoliv kromě zneužití dětí
Firma tak podle některých chystá do svých operačních systémů nainstalovat zadní vrátka, která by působila tak, že zachovávají soukromí, ve skutečnosti by ale byla snadno zneužitelná. Právě tento moment společnost Tima Cooka v novém dokumentu vehementně odmítá. „Náš systém je navržený tak, aby pracoval výhradně s hashi CSAM obrázků poskytnutými NCMEC a dalšími organizacemi pro ochranu dětí,“ stojí v něm.