Apple revisará todas las fotos que se hagan desde sus dispositivos en busca de contenidos pederastas

153

Apple se sube al carro de la vigilancia de contenidos. La compañía de Cupertino ha anunciado que a finales de este año pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pederastas (CSAM, child sexual abuse material).

MÁS INFORMACIÓN

Se suma así a lo que ya venía haciendo Google, que también escanea las fotos y vídeos que se suben en su nube (Google Drive) para detectar ese tipo de archivos.

El anuncio, avanzado ayer por el Financial Times, se produce tan solo un mes después de que el Parlamento de la Unión Europea aprobara suspender temporalmente la Directiva de la privacidad online precisamente para que las operadoras tengan el paraguas legal necesario para combatir la difusión de pornografía infantil. En Estados Unidos, el Centro Nacional para Menores Desaparecidos y Explotados (National Center for Missing and Exploited Children, NCMEC) hace tiempo que solicita la cooperación de las tecnológicas para perseguir a los pedófilos.

La decisión de Apple ha sentado como un jarro de agua fría a los activistas en defensa de la privacidad digital. El temor de fondo es que, una vez abierta la puerta a la revisión de contenidos privados de los teléfonos para detectar a potenciales criminales, se pueda extender ese escrutinio a otros objetivos bajo argumentos variopintos.

Apple se ha esforzado en explicar que el método que ha diseñado para vigilar los contenidos interfiere poco en la privacidad de los usuarios. El procedimiento es el siguiente: cada vez que una foto tomada desde un dispositivo Apple se sube a la nube (iCloud), se cruza automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. Si salta una coincidencia, se lanza un aviso a Apple y un empleado revisará los archivos para comprobar si son o no censurables. En caso afirmativo, se suspende la cuenta de Apple del usuario y se avisa a las autoridades.

La compañía sostiene que, mediante este sistema, nunca pone las manos sobre los archivos privados de los usuarios: el proceso se realiza dentro del dispositivo y solo alerta en caso de alarma.

Paralelamente a esta medida, la empresa de la manzana monitorizará con un sistema de machine learning, o aprendizaje automático, las comunicaciones realizadas por menores en su aplicación Messages, poco usada en Europa pero muy popular en Estados Unidos. Si se detecta que se están enviando o recibiendo imágenes con contenidos explícitos se alertará a los padres.

Algunos de los mensajes que se mostrará a los menores a quienes el sistema detecte que están intercambiando material sospechoso.
Algunos de los mensajes que se mostrará a los menores a quienes el sistema detecte que están intercambiando material sospechoso.APPLE