NEGOCIOS

Apple explica cómo los iPhone escanearán fotos en busca de imágenes de abuso sexual infantil

Primer plano del dedo femenino desplazándose en la pantalla del teléfono inteligente en un ambiente oscuro.

Poco después de los informes de hoy de que Apple comenzará a escanear iPhones en busca de imágenes de abuso infantil, la compañía confirmó su plan y proporcionó detalles en un comunicado de prensa y un resumen técnico.

«El método de Apple para detectar CSAM (material de abuso sexual infantil) conocido está diseñado teniendo en cuenta la privacidad del usuario», dijo el anuncio de Apple. «En lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidos proporcionados por NCMEC (Centro Marketingdecontenido para Niños Desaparecidos y Explotados) y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un ilegible conjunto de hashes que se almacena de forma segura en los dispositivos de los usuarios».

Apple proporcionó más detalles sobre el sistema de detección de CSAM en un resumen técnico y dijo que su sistema usa un umbral «establecido para proporcionar un nivel extremadamente alto de precisión y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada».

Los cambios se implementarán «a finales de este año en actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey», dijo Apple. Apple también implementará un software que puede analizar imágenes en la aplicación Mensajes para un nuevo sistema que «advertirá a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas».

Apple acusada de construir «infraestructura para vigilancia»

A pesar de las garantías de Apple, los expertos en seguridad y los defensores de la privacidad criticaron el plan.

«Apple está reemplazando su sistema de mensajería encriptada de extremo a extremo estándar de la industria con una infraestructura para vigilancia y censura, que será vulnerable al abuso y al aumento del alcance no solo en los EE. UU., sino en todo el mundo», dijo Greg Nojeim, codirector del Proyecto de Vigilancia y Seguridad del Centro para la Democracia y la Tecnología. «Apple debería abandonar estos cambios y restaurar la fe de sus usuarios en la seguridad e integridad de sus datos en los dispositivos y servicios de Apple».

Durante años, Apple se ha resistido a la presión del gobierno de EE. UU. para instalar una «puerta trasera» en sus sistemas de encriptación, diciendo que hacerlo socavaría la seguridad de todos los usuarios. Apple ha sido elogiado por los expertos en seguridad por esta postura. Pero con su plan para implementar un software que realiza escaneos en el dispositivo y comparte resultados seleccionados con las autoridades, Apple se acerca peligrosamente a actuar como una herramienta para la vigilancia del gobierno, sugirió en Twitter el profesor de criptografía de la Universidad Johns Hopkins, Matthew Green.

El escaneo del lado del cliente que Apple anunció hoy podría eventualmente «ser un ingrediente clave para agregar vigilancia a los sistemas de mensajería cifrada», dijo. escribió. «La capacidad de agregar sistemas de escaneo como este a E2E [end-to-end encrypted] Los sistemas de mensajería han sido una de las principales ‘peticiones’ de las fuerzas del orden en todo el mundo».

Escaneo de mensajes y “intervención” de Siri

Además de escanear dispositivos en busca de imágenes que coincidan con la base de datos CSAM, Apple dijo que actualizará la aplicación Mensajes para «agregar nuevas herramientas para advertir a los niños y sus padres cuando reciban o envíen fotos sexualmente explícitas».

«Messages utiliza el aprendizaje automático en el dispositivo para analizar los archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita. La función está diseñada para que Apple no tenga acceso a los mensajes», dijo Apple.

Cuando se marca una imagen en Mensajes, «la foto se verá borrosa y se advertirá al niño, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto». El sistema permitirá que los padres reciban un mensaje si los niños ven una foto marcada, y «hay protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. Se advertirá al niño antes de que se envíe la foto, y los padres pueden recibir un mensaje». si el niño decide enviarlo», dijo Apple.

Apple dijo que actualizará Siri y Search para «brindarles a padres e hijos más información y ayuda si se encuentran en situaciones inseguras». Los sistemas Siri y Search «intervendrán cuando los usuarios realicen búsquedas de consultas relacionadas con CSAM» y «explicarán a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán recursos de socios para obtener ayuda con este problema».

El Centro para la Democracia y la Tecnología calificó el escaneo de fotos en Mensajes como una «puerta trasera», y escribió:

El mecanismo que permitirá a Apple escanear imágenes en Mensajes no es una alternativa a una puerta trasera, es una puerta trasera. El escaneo del lado del cliente en un «extremo» de la comunicación rompe la seguridad de la transmisión, e informar a un tercero (el padre) sobre el contenido de la comunicación socava su privacidad. Las organizaciones de todo el mundo han advertido contra el escaneo del lado del cliente porque podría usarse como una forma en que los gobiernos y las empresas controlan el contenido de las comunicaciones privadas.

La tecnología de Apple para analizar imágenes

El resumen técnico de Apple sobre la detección de CSAM incluye algunas promesas de privacidad en la introducción. “Apple no aprende nada sobre las imágenes que no coinciden con la base de datos CSAM conocida”, dice. «Apple no puede acceder a metadatos o derivados visuales para imágenes CSAM coincidentes hasta que se supere un umbral de coincidencias para una cuenta de iCloud Photos».

La tecnología hash de Apple se llama NeuralHash y «analiza una imagen y la convierte en un número único específico para esa imagen. Solo otra imagen que parece casi idéntica puede producir el mismo número; por ejemplo, las imágenes que difieren en tamaño o calidad transcodificada todavía tienen el mismo valor de NeuralHash», escribió Apple.

Antes de que un iPhone u otro dispositivo Apple cargue una imagen en iCloud, el «dispositivo crea un cupón de seguridad criptográfico que codifica el resultado de la coincidencia. También encripta el NeuralHash de la imagen y un derivado visual. Este cupón se carga en iCloud Photos junto con la imagen. »

Al usar el «intercambio de secretos de umbral», el «sistema de Apple garantiza que Apple no pueda interpretar el contenido de los vales de seguridad a menos que la cuenta de iCloud Photos cruce un umbral de contenido CSAM conocido», dice el documento. «Solo cuando se supera el umbral, la tecnología criptográfica permite a Apple interpretar el contenido de los comprobantes de seguridad asociados con las imágenes CSAM coincidentes».

Si bien señaló la probabilidad de 1 en 1 billón de un falso positivo, Apple dijo que «revisa manualmente todos los informes realizados al NCMEC para garantizar la precisión de los informes». Los usuarios pueden «presentar una apelación para que se restablezca su cuenta» si creen que su cuenta se marcó por error.

Dispositivos de usuario para almacenar la base de datos CSAM cegada

Los dispositivos de los usuarios almacenarán una «base de datos ciega» que permite que el dispositivo determine cuándo una foto coincide con una imagen en la base de datos CSAM, explicó Apple:

Primero, Apple recibe los NeuralHashes correspondientes a CSAM conocido de las organizaciones de seguridad infantil mencionadas anteriormente. A continuación, estos NeuralHashes pasan por una serie de transformaciones que incluyen un paso de cegamiento final, impulsado por criptografía de curva elíptica. El cegamiento se realiza utilizando un secreto de cegamiento del lado del servidor, conocido solo por Apple. Los hash CSAM cegados se colocan en una tabla hash, donde la posición en la tabla hash es puramente una función del NeuralHash de la imagen CSAM. Esta base de datos ciega se almacena de forma segura en los dispositivos de los usuarios. Las propiedades de la criptografía de curva elíptica garantizan que ningún dispositivo pueda inferir nada sobre los hashes de imágenes CSAM subyacentes de la base de datos ciega.

Un iPhone u otro dispositivo analizará las fotos de los usuarios, calculará un NeuralHash y buscará «la entrada en la tabla hash ciega». El dispositivo «también usa el hash ciego que el sistema buscó para obtener una clave de cifrado derivada» y usa esa clave de cifrado «para cifrar los datos de carga útil asociados».

Combinado con otros pasos, esto asegura que solo se descifrarán las imágenes que coincidan con la base de datos CSAM, escribió Apple:

Si el hash de la imagen del usuario coincide con la entrada en la lista de hash de CSAM conocida, entonces el NeuralHash de la imagen del usuario se transforma exactamente en el hash cegado si pasó por la serie de transformaciones realizadas en el momento de la configuración de la base de datos. En función de esta propiedad, el servidor podrá usar el encabezado criptográfico (derivado de NeuralHash) y usar el secreto del lado del servidor, puede calcular la clave de cifrado derivada y descifrar con éxito los datos de carga asociados.

Si la imagen del usuario no coincide, el paso anterior no conducirá a la clave de cifrado derivada correcta y el servidor no podrá descifrar los datos de carga asociados. Por lo tanto, el servidor no aprende nada acerca de las imágenes que no coinciden.

El dispositivo no se entera del resultado de la coincidencia porque eso requiere el conocimiento del secreto oculto del lado del servidor.

Finalmente, el cliente sube la imagen al servidor junto con el comprobante que contiene los datos del payload encriptado y el encabezado criptográfico.

Como se señaló anteriormente, puede leer el resumen técnico aquí. Apple también publicó una explicación más larga y detallada de la tecnología criptográfica de «intersección de conjunto privado» que determina si una foto coincide con la base de datos CSAM sin revelar el resultado.

Artículo Recomendado:  Uno de los grupos de piratería más avanzados del mundo presenta una nueva puerta trasera de titanio

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba