TECNOLOGIA

Apple buscar automticamente fotos de pornografa infantil en los iPhone


Apple comenzar este ao a buscar de forma automtica fotos de abusos sexuales a menores que se suban a iCloud, el servicio de almacenamiento en la nube de la compaa.

La nueva herramienta de seguridad, que llegar con las versiones de iOS 15, se conocer como neuralHash, e incluir varias salvaguardas para proteger la privacidad de los usuarios, aunque algunos investigadores y expertos en seguridad se han mostrado preocupados por las implicaciones que podra tener su implantacin.

En un primer momento, la comprobacin slo se realizar en las cuentas de usuarios de EE.UU. El sistema, completamente automatizado, no tendr acceso directo al contenido de las imgenes que los usuarios suban a iCloud, pero s a una «huella digital» (hash) de las mismas.

Esta huella, que es bsicamente una cadena de caracteres, se calcula en base a la informacin presente en la imagen y posteriormente se compara con una base de datos de ms de 200.000 huellas de imgenes preseleccionadas por el Centro Nacional de Nios Perdidos o Explotados (NCMEC), la agencia estadounidense que se encarga de frenar la distribucin de imgenes sexuales explcitas de menores en la red.

El sistema diseado por Apple es lo suficientemente avanzado para detectar tambin similitudes en imgenes que hayan sido ligeramente modificadas (por ejemplo, recortadas). La deteccin tendr lugar en el propio telfono del usuario antes de subir la imagen al servicio iCloud. Si se detecta una foto que puede coincidir con las que NCMEC ha recopilado y marcado como imagen con contenido sexual explcito con menores, se genera un registro asociado a la cuenta del usuario.

Si una cuenta de usuario supera un umbral de registros (que Apple no ha especificado), la compaa comprobar de forma manual el contenido de las imgenes en iCloud y alertar al NCMEC y las autoridades si descubre finalmente contenido sexual explicito protagonizado por menores.

«El umbral est establecido para proporcionar un nivel extremadamente alto de precisin y la posibilidad de marcar incorrectamente una cuenta determinada es de una entre mil millones», explican desde la compaa.

UNA HERRAMIENTA CONTROVERTIDA

Este tipo de sistemas automatizados de deteccin de imgenes de contenido sexual explcito con menores son comunes en los sistemas de almacenamiento en la nube, como Google Drive o Dropbox. Apple tambin realiza estas comprobaciones en los archivos almacenados en sus servidores, pero su implantacin en el propio iPhone abre un precedente que algunos investigadores y expertos en seguridad consideran preocupante.

Se trata, a fin de cuentas, de un sistema que analiza automticamente las imgenes del usuario, aunque no lo haga de forma directa, y muchos tienen activado por defecto la subida de imgenes a iCloud por lo que afecta a todas las fotos almacenadas en el carrete.

«Quien controle la lista de huellas puede buscar cualquier contenido que desee en tu telfono, y realmente no tienes ninguna manera de saber qu hay en esa lista porque es invisible para ti«, explica Matthew Green, profesor de seguridad y cifrado en la Universidad Johns Hopkins.

El miedo de Green y otros expertos en seguridad es que, en un futuro, un gobierno pueda decidir usar esta herramienta ya implementada para buscar, por ejemplo, imgenes de una pancarta en una protesta u otro tipo de contenido que ponga en peligro a los ciudadanos, sobre todo en pases con regmenes autoritarios.

Varios investigadores han demostrado tambin que hay formas de engaar a los algoritmos que crean estas huellas nicas de cada imagen, algo que podra ser utilizado para generar falsos positivos con fotos aparentemente inocentes y dar as a las fuerzas de seguridad una excusa para acceder a la informacin presente en un telfono.

En los ltimos aos, varias agencias de seguridad y gobiernos han pedido a Apple que creen puertas traseras que les permitan acceder a mensajes e imgenes envidas o almacenadas en los telfonos para ayudar en las investigaciones de abusos a menores o terrorismo.

Apple, hasta el momento, se ha negado. Su argumento es que una puerta trasera podra ser utilizada tambin por gobiernos autoritarios para vulnerar los derechos de las personas y que, una vez creada, este tipo de puertas podra caer tambin en manos de ciberdelincuentes.

NeuralHash es en cierta forma una solucin de compromiso que permite detectar imgenes explcitas de abusos a menores sin que haya una puerta trasera que rebaje la seguridad o nivel general de privacidad de la plataforma.

AVISO A LOS PADRES

Adems de esta herramienta, Apple incluir en iOS15 nuevos sistemas de proteccin en las cuentas de menores de edad para frenar el intercambio de fotos sexualmente explcitas.

Si un usuario menor de edad recibe una foto con contenido sexual, sta aparecer difuminada en la pantalla y se advertir al nio o la nia de que la foto tiene un contenido que puede ser nocivo.

Si an as decide verla podr hacerlo pero se enviar un aviso a los padres. Varias pantallas de confirmacin explicarn por qu el envo de este tipo de imgenes puede ser perjudicial y qu se considera una imagen sexualmente explcita (imgenes que muestren partes del cuerpo que normalmente se cubren con un baador).

Hay protecciones similares disponibles si un nio intenta enviar fotos sexualmente explcitas. Se advertir al nio antes de que se enve la foto, y los padres recibirn un mensaje si el nio decide enviarla.

El sistema de deteccin utiliza tcnicas de aprendizaje mquina en el dispositivo para analizar los archivos adjuntos de imgenes y determinar si una foto es sexualmente explcita. La funcin est diseada para que Apple no tenga acceso a los mensajes (toda la comprobacin se realiza en el propio dispositivo) y slo funcionar con la aplicacin de Mensajes de la propia Apple

Conforme a los criterios de

The Trust Project

Saber más



TE INTERESA>>  No estás aprovechando al máximo la cámara de tu iPhone

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba