• Apple empezará a implementar un sistema que revisará las fotos de iPhones en busca de imágenes de abuso infantil en cada país.
  • El sistema comprueba las fotos de los smartphones antes de que se suban al servicio de almacenamiento iCloud, y luego son revisadas por personas que alertan en las autoridades en caso de determinar que son ilegales.
  • La medida ha sido bien recibida, pero algunos expertos dicen que podría abrir la puerta a que empresas o gobiernos vigilen otros aspectos de los usuarios.

Apple anunció este viernes que implementará un sistema que revisará las fotos de iPhones en busca de imágenes de abuso infantil en distintos países.

El nuevo sistema de Apple pretende responder a las peticiones de los departamentos de policía para ayudar a frenar los abusos sexuales a menores, respetando al mismo tiempo las prácticas de privacidad y seguridad que son un principio básico de la marca de la empresa.

El jueves, el Financial Times informó sobre algunos aspectos del programa, que se pensaba serían únicos para Estados Unidos; sin embargo, en una rueda Apple dijo que tiene planes para expandir el servicio en función de las leyes de cada país donde opera.

El sistema de Apple para detectar imágenes de abuso infantil mezcla elementos tecnológicos y humanos

El sistema comprueba las fotos de los iPhones antes de que se suban al servicio de almacenamiento iCloud. Esto para asegurarse de que las subidas no coincidan con imágenes conocidas de abuso sexual infantil.

Los agentes de las policías mantienen una base de datos de imágenes conocidas de abusos sexuales a menores y traducen esas imágenes en «hashes»; es decir, códigos numéricos que identifican positivamente la imagen pero que no pueden utilizarse para reconstruirlas.

Apple implementó esa base de datos utilizando una tecnología llamada «NeuralHash», diseñada para captar también imágenes editadas similares a las originales. Esa base de datos se almacenará en los iPhones.
Cuando un usuario suba una imagen a iCloud, el iPhone creará un hash de esta y lo comparará con la base de datos.

Revisores humanos verán el material y alertarán a las autoridades si consideran que es ilegal. Apple dijo que no pasará los informes de su nuevo sistema de comprobación de fotos a las policías si la revisión humana determina que no contienen imágenes de abuso infantil,.

La compañía agregó que las fotos almacenadas sólo en el teléfono no se comprueban, y que la revisión manual antes de denunciar una cuenta a las fuerzas del orden está destinada a garantizar que las coincidencias sean auténticas antes de suspender una cuenta.

Apple agregó que los usuarios que consideren que su cuenta fu suspendida indebidamente pueden apelar para que se les restablezca.

El nuevo sistema de Apple fue bien recibido, pero algunos expertos dicen que podría abrir la puerta a vigilar otros aspectos de los usuarios

Empresas tecnológicas como Google, Facebook y Microsoft, ya cotejan las imágenes con una base de datos de imágenes ya registradas de abuso sexual infantil; sin embargo, la reciente medida de Apple fue particularmente bien recibida por grupos de seguridad infantil.

«Con tanta gente que utiliza los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo seducidos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil», dijo John Clark, director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, en un comunicado. «La realidad es que la privacidad y la protección de los niños pueden coexistir».

Sin embargo, algunos defensores de la privacidad dijeron que el sistema podría abrir la puerta a la vigilancia de otros contenidos en los iPhones.

En Twitter, algunos expertos en privacidad y seguridad expresaron su preocupación por la posibilidad de que el sistema se amplíe para escanear en los teléfonos contenidos prohibidos o discursos políticos.

Apple ha «enviado una señal muy clara. En su (muy influyente) opinión, es seguro construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido», advirtió Matthew Green, investigador de seguridad de la Universidad Johns Hopkins. «Esto romperá el dique: los gobiernos lo exigirán a todo el mundo».

Otros investigadores de la privacidad, como India McKinney y Erica Portnoy, de la Electronic Frontier Foundation, escribieron en un blog que puede ser imposible para los investigadores externos comprobar si Apple cumple sus promesas de comprobar sólo un pequeño conjunto de contenidos en el dispositivo.

La medida es «un giro sorprendente para los usuarios que han confiado en el liderazgo de la empresa en materia de privacidad y seguridad», escribieron ambos.

«Al final del día, incluso una puerta trasera bien documentada, cuidadosamente pensada y de alcance limitado sigue siendo una puerta trasera», escribieron McKinney y Portnoy.

Con información de Reuters.

AHORA LEE: Facebook reportó más de 20 millones de imágenes de abuso sexual infantil en 2020

TAMBIÉN LEE: Apple permitirá almacenar tarjetas de identificación en iPhones, y anuncia otras mejoras de privacidad

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedIn y Twitter