Po velkém odporu ze strany kritiků i uživatelů Apple odkládá svá opatření proti zneužívání dětí.
V srpnu technologický gigant původně oznámil novou zásadu, která využívá technologii k odhalení potenciálního zneužívání dětí na iCloudu a ve Zprávách, ale následovaly obavy. Odborníci varovali, že i když Apple slíbil soukromí uživatelů, tato technologie by nakonec ohrozila všechny uživatele Apple.
V pátek Apple uvedl, že zavedení této technologie úplně odloží, aby bylo možné provést vylepšení a plně zajistit soukromí uživatelů.
„Na základě zpětné vazby od zákazníků, zájmových skupin, výzkumných pracovníků a dalších jsme se rozhodli věnovat v nadcházejících měsících více času sběru podnětů a provedení vylepšení před uvolněním těchto kriticky důležitých funkcí pro bezpečnost dětí,“uvedl Apple ve zprávě. aktualizované prohlášení na svém webu.
Technologie detekce materiálu pro detekci sexuálního zneužívání dětí měla být dostupná koncem tohoto roku v rámci zavedení iOS 15, ale nyní není jasné, kdy a zda vůbec bude tato funkce uvedena na trh.
Nová technologie by fungovala dvěma způsoby: za prvé, skenováním obrázku před jeho zálohováním na iCloud. Pokud tento obrázek odpovídá kritériím CSAM, společnost Apple tato data obdrží. Druhá část technologie využívá strojové učení k identifikaci a rozmazání sexuálně explicitních obrázků, které děti obdrží prostřednictvím zpráv.
Po oznámení nových zásad však ochránci soukromí a skupiny uvedli, že Apple v podstatě otevírá zadní vrátka, která mohou špatní herci zneužít.
K vyřešení těchto obav společnost Apple krátce po oznámení technologie CSAM vydala stránku s často kladenými dotazy. Apple vysvětlil, že tato technologie nebude skenovat všechny fotografie uložené v zařízení, neprolomí end-to-end šifrování ve Zprávách a nebude falešně nahlašovat nevinné lidi orgánům činným v trestním řízení.