NEGOCIOS

Apple planea escanear iPhones estadounidenses en busca de imágenes de abuso infantil

Cinco iPhones en una mesa
Agrandar / La línea de iPhone 2023. De izquierda a derecha: iPhone 12 Pro Max, iPhone 12 Pro, iPhone 12, iPhone SE y iPhone 12 mini.

Apple tiene la intención de instalar un software en los iPhone estadounidenses para escanear imágenes de abuso infantil, según personas informadas sobre sus planes, lo que genera alarma entre los investigadores de seguridad que advierten que podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas.

Apple detalló su sistema propuesto, conocido como «neuralMatch», a algunos académicos estadounidenses a principios de esta semana, según dos investigadores de seguridad informados sobre la reunión virtual. Los planes podrían publicarse más ampliamente tan pronto como esta semana, dijeron.

El sistema automatizado alertaría proactivamente a un equipo de revisores humanos si cree que se detectan imágenes ilegales, quienes luego se comunicarían con las fuerzas del orden público si se puede verificar el material. El esquema se implementará inicialmente solo en los EE. UU.

Apple se negó a comentar.

Las propuestas son un intento de Apple de encontrar un compromiso entre su propia promesa de proteger la privacidad de los clientes y las demandas constantes de los gobiernos, las fuerzas del orden y los defensores de la seguridad infantil para obtener más asistencia en las investigaciones criminales, incluido el terrorismo y la pornografía infantil.

La tensión entre empresas tecnológicas como Apple y Facebook, que han defendido su creciente uso del cifrado en sus productos y servicios, y las fuerzas del orden solo se ha intensificado desde que el fabricante del iPhone acudió a los tribunales con el FBI en 2023 por acceder al iPhone de un sospechoso de terrorismo. tras un tiroteo en San Bernardino, California.

Artículo Recomendado:  Ars pregunta: ¿Qué impide que su lugar de trabajo adopte tecnología más nueva?

Los investigadores de seguridad, si bien apoyan los esfuerzos para combatir el abuso infantil, están preocupados de que Apple corra el riesgo de permitir que los gobiernos de todo el mundo busquen acceso a los datos personales de sus ciudadanos, potencialmente mucho más allá de su intención original.

“Es una idea absolutamente atroz, porque conducirá a una vigilancia masiva distribuida de . . . nuestros teléfonos y computadoras portátiles”, dijo Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge.

Aunque el sistema actualmente está capacitado para detectar el abuso sexual infantil, podría adaptarse para buscar cualquier otra imagen y texto específico, por ejemplo, decapitaciones terroristas o carteles antigubernamentales en las protestas, dicen los investigadores. El precedente de Apple también podría aumentar la presión sobre otras empresas tecnológicas para que utilicen técnicas similares.

“Esto romperá la presa: los gobiernos lo exigirán de todos”, dijo Matthew Green, profesor de seguridad en la Universidad Johns Hopkins, quien se cree que es el primer investigador en publicar un tuit sobre el tema

Alec Muffett, investigador de seguridad y activista de la privacidad que trabajó anteriormente en Facebook y Deliveroo, dijo que el movimiento de Apple fue «tectónico» y un «paso enorme y regresivo para la privacidad individual».

“Apple está retrocediendo en la privacidad para permitir 1984,» él dijo.

Los sistemas de almacenamiento de fotos basados ​​en la nube y los sitios de redes sociales ya buscan imágenes de abuso infantil, pero ese proceso se vuelve más complejo cuando se intenta acceder a los datos almacenados en un dispositivo personal.

El sistema de Apple es menos invasivo porque la detección se realiza en el teléfono y «solo si hay una coincidencia se envía una notificación a quienes buscan», dijo Alan Woodward, profesor de seguridad informática en la Universidad de Surrey. “Este enfoque descentralizado es el mejor enfoque que podría adoptar si sigue este camino”.

El algoritmo neuralMatch de Apple escaneará continuamente las fotos que están almacenadas en el iPhone de un usuario de EE. UU. y que también se han subido a su sistema de copia de seguridad iCloud. Las fotos de los usuarios, convertidas en una cadena de números a través de un proceso conocido como «hashing», se compararán con las de una base de datos de imágenes conocidas de abuso sexual infantil.

El sistema ha sido entrenado con 200.000 imágenes de abuso sexual recopiladas por el Centro Marketingdecontenido para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU.

Según personas informadas sobre los planes, cada foto cargada en iCloud en los EE. UU. recibirá un «vale de seguridad» que indicará si es sospechosa o no. Una vez que una cierta cantidad de fotos se marcan como sospechosas, Apple permitirá que todas las fotos sospechosas se descifren y, si aparentemente son ilegales, se las pasará a las autoridades pertinentes.

© 2023 The Financial Times Ltd. Todos los derechos reservados No debe redistribuirse, copiarse ni modificarse de ninguna manera.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba