La manzana americana ha anunciado medidas apuntadas a proteger a los menores de posibles abusos sexuales y de detener la circulación de pornografía infantil en sus servicios y dispositivos. Dichas medidas vendrán con Apple iOS 15, así como también con MacOS 12, iPadOS 15 y WatchOS 8.
Sin lugar a dudas el objetivo es noble, pero el método no está exento de polémica debido a los sacrificios en términos de privacidad, lo cual es un asunto importante cuando hablamos de una compañía que se tutea a sí misma como una defensora de la privacidad de sus usuarios.
NeuralMatch, la herramienta de Apple para detectar abusos contra menores
En el centro de estas medidas yace NeuralMatch, una sofisticada herramienta que emplea inteligencia artificial para escanear fotos almacenadas en dispositivos Apple relacionadas con material pornográfico infantil.De igual manera, el alcance de esta herramienta se extiende al contenido almacenado en iCloud. De detectarse contenido de este tipo, se reportará el contenido a las entidades pertinentes en los Estados Unidos; estaríamos hablando específicamente del Centro Nacional para Niños Desaparecidos y Explotados (NCEM).
Asimismo, cuando el contenido es detectado de manera local, en adición a ser reportados al NCEM, las fotos serán evaluadas por un empleado de Apple, quien se asegurará de que el contenido verdaderamente califique como pornografía infantil.
Obviamente aquí es donde nacen las controversias, pero Erik Neuenschwander, jefe de asuntos de privacidad de Apple, aseguró que NeuralMatch no es intrusivo y que solo aquellos usuarios que almacenen “una colección de fotos de abuso infantil” tendrán problemas.
La segunda medida contra el abuso sexual infantil se toma en el departamento de comunicación. En este sentido, iMessage censurará imágenes sexualmente explícitas recibidas por este medio, pero también se podrá añadir una capa extra de seguridad e informar a los padres si el menor termina accediendo a ver las fotos.
Por último, Siri y la app buscar brindarán información para combatir estas situaciones y mantenerse a salvo online. Estas herramientas indicarán donde reportar casos de explotación infantil y avisarán al usuario cuando se hagan búsquedas relacionadas con el tema.
¿Cuál es la polémica entonces?
A decir verdad, todas estas medidas luchan por una causa justa, y no son precisamente exclusivas de Apple, pues Google ha tomado medidas similares, utilizando hashing para identificar pornografía infantil desde hace mucho tiempo. Incluso Facebook, Twitter y Reddit hacen buenos esfuerzos en este frente, así que ¿A qué deben temerle aquellos que no tienen nada que esconder?Pues se teme que Apple planee construir una puerta trasera en su sistema de almacenamiento de datos y su sistema de mensajería, eso por mencionar el deservicio que se le haría a la encriptación de extremo a extremo.
Con tan solo cambiar unos parámetros la búsqueda se puede ampliar a otros contenidos y fines. En este sentido, todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido y no solo en las cuentas de los niños, sino de cualquier persona.
Es aquí donde nace la discusión, eso por mencionar el posible uso que se le podría dar en países autoritarios, donde no se tolera la disidencia política. ¿Qué tomará para que Apple ceda a presiones externas? ¿Qué tomará para que la búsqueda se aplique a imágenes de violencia, protestas o armas? He ahí el dilema.
Se cree que inevitablemente el gobierno de los Estados Unidos pedirá ampliar estas herramientas para ayudar contra la lucha del terrorismo, así que solo sería cuestión de tiempo a que otra nación haga lo mismo.
Nuevamente, la meta es noble, el medio, no tanto. Solo el tiempo dirá si las preocupaciones de los defensores de la libertad online son infundadas o si terminan haciéndose realidad.
Vía | CBS News
GizLogic