Retomando la historia de ayer, habíamos establecido que existen muchas preocupaciones por parte de los defensores de la privacidad con respecto al nuevo software de Apple, NeuralMatch, el cual está encaminado a combatir el abuso sexual y la pornografía infantil. Como recordarán, el principal argumento gira en torno a la posibilidad que Apple esté construyendo una puerta trasera; la cual podría ser convertida en una herramienta de vigilancia por gobiernos autoritarios.
No obstante, Apple ha salido al paso para calmar las aguas y aclarar la situación. En un preguntas y respuestas oficial, la manzana americana clarificó, entre varias cosas, que “esta tecnología se limita a detectar CSAM (material de abuso sexual infantil) almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirlo”.
Organizaciones defensoras de las libertades civiles como la Electronic Frontier Foundation, han señalado que una de las primeras tecnologías de este tipo fue reutilizada para crear un base de datos de “contenido terrorista”, a la cual las compañías pueden contribuir con muestras para banear dicho tipo de contenido. Así que ¿Qué detiene al proyecto de Apple de sufrir el mismo destino?
Apple promete que este no será el caso
En el documento publicado por la compañía, Apple argumenta que cuenta con salvaguardias para evitar que sus sistemas se utilicen para detectar cualquier otra cosa que no sean imágenes de abuso sexual. Dice que su lista de imágenes prohibidas es proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil. Adicionalmente, no hay reporte automatizado a las autoridades, un humano revisará cada caso de manera individual.“Como resultado, el sistema está diseñado únicamente para reportar fotos que se conocen como CSAM en iCloud Photos”, aseguró la empresa americana.
Apple indica que rechazará las demandas de cualquier gobierno por añadir imágenes a la base de datos que no entren en esta categoría. Encima de eso, la compañía saca pecho de haber rechazado firmemente en el pasado demandas de gobiernos en buscar de implementar funciones que degradan la privacidad de los usuarios.
En la otra cara de la moneda, están aquellos que argumentan que esto último no es del todo cierto. Como evidencia de ello mencionan el hecho de que la marca vende iPhones con FaceTime desactivado en países que no aceptan llamadas telefónicas encriptadas; esto por no mencionar aquel infame momento en que dobló la rodilla a China al remover miles de aplicaciones de la App Store.
No obstante, el documento peca de no abordar algunas inquietudes sobre la función que escanea los mensajes en busca de material sexualmente explícito. Supuestamente la función no comparte ninguna información con Apple o la policía; pero no dice cómo se asegura de que el enfoque de la herramienta permanezca únicamente en imágenes sexualmente explícitas.
Por último, existe la preocupación de que el algoritmo clasifique erróneamente el contenido, pues como todos sabrán, a la tecnología de aprendizaje automático le lleva su tiempo madurar.
Vía | Apple
GizLogic