Esta es la razón por la que Apple revisará todas las fotos de tu iPhone
Tendrá acceso a todas las imágenes de tu galería.
Hace tan solo unos días, el gigante Apple dio a conocer sus planes para escanear diversos modelos de iPhone en busca de imágenes que puedan ser constitutivas de delitos de abuso sexual infantil. Esta iniciativa, que de momento solo se pondrá en práctica en Estados Unidos, provocó el aplauso de los grupos de protección de la infancia, pero generó una inmensa preocupación entre algunos investigadores y expertos en ciberseguridad, ya que el sistema de revisión de imágenes podría constituir una violación de los derechos fundamentales, y ser utilizado por los gobiernos para vigilar a sus ciudadanos.
La herramienta diseñada para detectar imágenes de presunto abuso sexual infantil se llama neuralMatch, y escaneará todas las fotografías de los iPhone antes de que se carguen en iCloud. Otra de las controversias radica precisamente en esto, en que no solo Apple revisará la galería de imágenes de los teléfonos, sino que luego las descargará todas, no solo las imágenes delictivas, en el caso de que las hubiera, sino todas las fotografías de los usuarios.
Posible violación de la privacidad
El proceso estará totalmente automatizado. Las imágenes descargadas pasarán por la herramienta y, si se encuentra una coincidencia, la imagen será revisada por un humano. Si se confirma la presencia de pornografía infantil, se desactivará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
Por otra parte, Apple también planea revisar los mensajes cifrados de los usuarios en busca de contenido sexualmente explícito como medida de seguridad contra el abuso infantil, lo que también ha suscitado alarma entre los defensores de la privacidad.
El sistema de detección solo marcará las imágenes que ya estén en la base de datos del organismo que lucha contra la pornografía infantil, así que los padres que hagan fotos inocentes de sus hijos en el baño, en principio no tienen de qué preocuparse.
Un trasfondo más oscuro
Sin embargo, algunos investigadores dicen que esta herramienta de detección de imágenes delictivas realmente no ve las fotos, sino que lo único que rastrea son huellas digitales compuestas por las operaciones matemáticas que las representan, por lo que este software podría utilizarse para propósitos mucho más oscuros, como el rastreo de hábitos de navegación para obtener datos personales como hábitos de compra o incluso tendencias políticas.
Otros potenciales abusos por parte de los gobiernos podrían incluir la vigilancia de disidentes o manifestantes. Empresas tecnológicas como Microsoft, Google o Facebook llevan años compartiendo huellas digitales de imágenes conocidas de abuso sexual infantil. Pero Apple ha ido mucho más lejos, ya que las quiere utilizar para escanear archivos privados de los usuarios almacenados en su servicio iCloud.
Apple fue una de las primeras empresas importantes en adoptar el famoso cifrado de extremo a extremo, en el que los mensajes se codifican para que solo sus remitentes y destinatarios puedan leerlos. Sin embargo, las fuerzas de seguridad han presionado durante mucho tiempo a la empresa para tener acceso a esa información y facilitar la investigación de diversos delitos, como el terrorismo o la explotación sexual infantil.