Apple retrasa el lanzamiento del sistema para detectar el contenido pedófilo subido desde iPhones y iPads

Apple retrasa el lanzamiento del sistema para detectar el contenido pedófilo subido desde iPhones y iPads

Apple ha anunciado hoy que retrasa la puesta en marcha de las nuevas medidas para proteger a la infancia que anunció a principios del pasado agosto. Entre ellas, la más polémica era el escaneo automático de todas las imágenes subidas a la nube desde iPhones y iPads ―los populares modelos de teléfono y tableta que comercializa la compañía― para detectar imágenes de contenido pedófilo o sobre abusos a niños. Esta iniciativa iba a implementarse en EE UU a finales de este año. La rectificación se produce después de que la compañía recibiera múltiples críticas por parte de grupos y activistas defensores de la privacidad en internet, que consideraban que el supuesto remedio era aún peor que el mal que se trataba de atajar.

Más información

La compañía ha añadido a la página donde anunció en su día las medidas un encabezamiento comunicando su suspensión. “Anteriormente anunciamos planes con nuevas funcionalidades destinadas a ayudar a proteger a los niños de los depredadores sexuales que usan herramientas de comunicación para reclutarlos y explotarlos, y para ayudar a limitar la propagación de material sobre abuso sexual infantil. Teniendo en cuenta los comentarios de los clientes, organizaciones legales, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas medidas de seguridad infantil, de enorme importancia”, dice la nota.

Con las primeras críticas, la compañía se había esforzado en explicar que el método elegido apenas interfería en la privacidad de los usuarios. El procedimiento propuesto suponía que cada vez que una foto tomada desde un dispositivo de Apple se subiera a la nube, se cruzaría automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. En caso de coincidencia, se lanzaría un aviso a Apple y un empleado revisaría los archivos y, en su caso, se suspendería la cuenta del usuario y se avisaría a las autoridades.

Sin embargo, estas explicaciones no satisficieron a los grupos defensores de la privacidad. Estos consideraban que, aunque su propósito era loable, una vez activadas esas funcionalidades solo era cuestión de tiempo que se utilizaran para otros fines, como la persecución de la disidencia en los países autoritarios o sencillamente la vigilancia extrema de cualquier ciudadano. A mediados de agosto, decenas de organizaciones escribieron una carta abierta al CEO de Apple, Tim Cook, para que rectificara. “Aunque estas funciones están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil, nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y que al final tengan consecuencias desastrosas para muchos niños”, señalaban los grupos en la carta.

Los firmantes mostraban además su preocupación por otra medida anunciada que, a tenor del mensaje publicado hoy por Apple, también ha quedado suspendida: un sistema de vigilancia de las comunicaciones de los menores en la aplicación iMessage a través del llamado machine learning (aprendizaje automático). La idea es que se enviara una alerta a los padres cuando se detectara que un menor estaba intercambiando contenido explícito. Según los grupos defensores de la privacidad, esta iniciativa podría amenazar la seguridad y bienestar de algunos jóvenes, sobre todo del colectivo LGTBI+ con padres poco comprensivos.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Valoración*

×

Hola

Deseas mayor información, escríbeme.

×