Apple claudica en el escaneo de fotos ante las protestas sociales

Apple ha retrasado los planes para implementar una función de escaneo automatizado en iCloud Photos que, según asegura, ayudará a proteger a los niños de los depredadores sexuales.

Publicado el 07 Sep 2021

31476_11

La empresa de la manzana ha arrojado la toalla, al menos temporalmente, debido a los comentarios de colectivos sociales, investigadores y consumidores en relación con su idea de incluir la función de escaneo automatizado de fotos en su servicio iCloud Photos, con el propósito de identificar a delincuentes, especialmente pederastas y abusadores sexuales.

Apple anunció la tecnología de escaneo el mes pasado, diciendo que tenía la intención de limitar la propagación de material de abuso sexual infantil (CSAM) en línea. El plan original era construir “nuevas aplicaciones de criptografía” en futuras versiones de iOS y iPadOS, para permitir a Apple detectar imágenes CSAM a medida que se cargan en iCloud Photos, el almacenamiento en línea de Apple.

Antes de que una imagen se almacene en Fotos de iCloud, se realizaría un proceso de coincidencia en el dispositivo para la imagen con una base de datos de imágenes CSAM conocidas, compilada por el Centro Nacional de Niños Desaparecidos y Explotados de EEUU.

Sin embargo, la decisión recibió el rechazo de los defensores de la seguridad y la privacidad, quienes dijeron que podría abrir una puerta trasera a los iPhones, permitiendo que los gobiernos autoritarios y los piratas informáticos accedan a los dispositivos sin permiso.

Apple argumentó que su uso de la tecnología neuralHash, que busca “huellas dactilares” digitales para que coincidan con la base de datos CSAM, en lugar de escanear fotos directamente, protegería la privacidad de los usuarios.

El sistema está diseñado para que nadie pueda aprender sobre imágenes que no coinciden con la base de datos

El sistema analiza una imagen y la convierte en una clave hash o un conjunto único de números, luego hace coincidir la clave con la base de datos de NCMEC utilizando criptografía.

El sistema está diseñado para que nadie pueda aprender sobre imágenes que no coinciden con la base de datos. Además, un revisor humano examinará cualquier imagen que el sistema señale, para confirmar una coincidencia y pasar la información a la policía, si es necesario.

A pesar de esas aclaraciones, más de 5.000 personas y organizaciones firmaron una carta abierta instando a la firma tecnológica a reconsiderar su decisión.

“Si bien la explotación infantil es un problema grave, y aunque los esfuerzos para combatirla son casi incuestionablemente bien intencionados, la propuesta de Apple introduce una puerta trasera que amenaza con socavar las protecciones fundamentales de privacidad para todos los usuarios de los productos de Apple”, se afirma en la carta.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 2