NAIZ
Nueva York

El plan de Apple para detectar imágenes pedófilas reabre el debate sobre privacidad en Internet

Compaginar la lucha contra la pedofilia con la defensa de la privacidad en Internet tiene difíciles aristas, ya que un objetivo loable puede abocar a la vulneración de otros derechos. Apple tiene nuevas herramientas para acceder a las imágenes que manejan los usuarios, pero ¿dónde están los límites?

Las nuevas herramientas de Apple estarán disponibles con las últimas actualizaciones de los sistemas operativos de sus dispositivos en EEUU. (Johannes EISELE | AFP)
Las nuevas herramientas de Apple estarán disponibles con las últimas actualizaciones de los sistemas operativos de sus dispositivos en EEUU. (Johannes EISELE | AFP)

Apple ha presentado nuevas herramientas destinadas a detectar de forma más eficiente las imágenes de carácter sexual que involucran a menores en sus iPhone, sus iPad y el servidor iCloud en Estados Unidos, lo que ha suscitado preocupación entre quienes defienden el derecho a la privacidad en Internet.

«Queremos ayudar a proteger a los niños contra los depredadores que utilizan herramientas de comunicación para recrutarlos y explotarlos, y limitar la difusión de contenidos de pornografía infantil», ha justificado el gigante tecnológico.

Para lograr ese objetivo, Apple prevé utilizar herramientas de criptografía para comparar las fotos que se cargan en iCloud con las almacenadas en un archivo gestionado por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC por sus siglas en inglés).

Y asegura que, con este método, no tendrá acceso directo a las imágenes analizadas. Cuando una foto tenga parecido a otra del fichero NCMEC, entonces Apple procederá a verificarlo manualmente y, en caso necesario, desactivará la cuenta del usuario y enviará un informe al centro.

Las fotos ‘sospechosas’ serán pixeladas

La compañía también planea escanear imágenes enviadas o recibidas a través del servicio de mensajería iMessage en cuentas de niños vinculadas a una suscripción familiar.

Cuando se detecten fotos explícitas, serán pixeladas y se remitirá al menor hacia ventanas con mensajes de prevención antes de que puedan abrirse o enviarse.

Si así lo deciden, madres y padres podrán activar la opción de recibir un mensaje cuando su hija o hijo reciba o envíe fotos de este tipo.

El asistente Siri también estará capacitado para ‘intervenir’ cuando los usuarios busquen imágenes de pornografía infantil advirtiéndoles de que estos contenidos son problemáticos.

Estas herramientas estarán disponibles de forma progresiva con las próximas actualizaciones de los sistemas operativos en los iPhone, iPad, iWatch e iMac en Estados Unidos.

Ruptura con los protocolos actuales

Estos cambios, anunciados la noche del jueves, «marcan una significativa ruptura con los protocolos de confidencialidad y seguridad establecidos desde hace mucho tiempo», estima el Centro para la Democracia y la Tecnología (CDT).

«Apple está reemplazando su sistema de mensajería encriptada de cabo a rabo por una infraestructura de vigilancia y censura, que será vulnerable a los abusos y las derivas no solo en Estados Unidos, sino en todo el mundo», ha comentado Greg Nojeim, codirector del Proyecto de Seguridad y Vigilancia de CDT, en un mensaje enviado a AFP.

En su opinión, debería «abandonar estos cambios y restaurar la confianza de sus usuarios en la seguridad y la integridad de sus datos almacenados en los dispositivos y servicios de Apple».

De hecho, el gigante informático tiene fama de defender la privacidad de sus clientes ante la presión de ciertas autoridades que buscan acceder a los datos de los usuarios en nombre de ‘la lucha contra el crimen’ o ‘el terrorismo’.

«La explotación infantil es un problema grave, y Apple no es la primera empresa tecnológica que cambia su posición sobre la protección de la privacidad en un intento por combatirla», comentan, por su parte, India McKinney y Erica Portnoy, de Electronic Frontier Foundation (EEF), una ONG para la protección de las libertades en Internet.

Pero incluso aunque haya sido desarrollado con las mejores intenciones, un sistema destinado a detectar imágenes de pornografía infantil «abre la puerta a otros abusos», como advierten en su blog. Apple solo tendría que modificar un poco la configuración de la aplicación para buscar otro tipo de contenidos o para escanear las cuentas no solo de los menores sino las de todo el mundo, explican.