El software iba a escanear el contenido de dispositivos. Para muchos, es espionaje.
Apple decidió postergar su plan de escudriñar todos los iPhones en EE.UU. para buscar posibles imágenes de abuso sexual de menores, alegando que necesita más tiempo para perfeccionar el sistema.
La compañía reveló en agosto que estaba elaborando una herramienta informática para detectar automáticamente imágenes de abuso sexual infantil, la cual funcionaría mediante el escaneo de archivos antes de que sean subidos a su servicio de nube iCloud. También dijo que trabaja en otro programa, que le permitiría detectar contenidos explícitamente sexuales en mensajes cifrados.
?Con base en las respuestas que hemos recibido de clientes, grupos activistas, investigadores y otros, hemos decidido tomarnos más tiempo para recibir asesoría y hacer las mejoras necesarias antes de emitir estas importantes herramientas de protección infantil?, declaró la compañía .
Matthew Green, experto en criptografía de la Universidad Johns Hopkins, advirtió en agosto que el sistema sería usado para acusar falsamente a personas inocentes, mediante el envío de imágenes aparentemente inocuas diseñadas para detonar alarmas por pornografía infantil.
Luego, el desarrollador dijo que había hallado la manera de abusar del software, que está diseñado para interpretar las huellas digitales matemáticas que conforman una imagen.