Apple aborta la propuesta de escanear iCloud en busca de material de abuso infantil



En verano de 2021 la manzana americana presentaba una de sus propuestas más controversiales hasta la fecha, que se trataba de una serie de medidas para iOS, iPadOS y sus demás sistemas operativos, las cuales estaban encaminadas a combatir el abuso sexual infantil y la circulación de contenido de esta clase. No obstante, y a pesar de las nobles intenciones de Apple, en su momento esta propuesta fue recibida con escepticismo y críticas por los expertos y defensores de la privacidad en línea; esto debido a los medios necesarios para lograrlo y sus posibles repercusiones sobre los usuarios.

En este sentido, Apple tenía en mente usar aprendizaje automático y otras técnicas avanzadas para escanear el contenido almacenado en iCloud de todos sus usuarios en busca de material o evidencia de CSAM (material sobre abuso sexual infantil).

En teoría aquel que no tiene que esconder nada tiene que temer, ¿Verdad? Así es, pero el problema radica en lo sencillo que es para Apple reutilizar esta herramienta para buscar otro tipo de contenidos e implementar una puerta trasera que se prestaría al espionaje. En su momento se discutió lo altamente probable que sería que otras entidades; como el gobierno estadounidense, exigiesen a Apple aplicar su tecnología para luchar contra el terrorismo y la disidencia política; sobra decir que una herramienta así podría abrir la caja de Pandora en más de un país con régimen autoritario.

Petición de oposición contra la herramienta de detección de CSAM de Apple


Apple cancela los planes de su herramienta de detección de CSAM

Con todo eso dicho, y después de haberse pospuesto su implementación de manera indefinida, hoy tenemos confirmación oficial de que la marca de Cupertino decidió echarse para atrás por completo con el plan.

Entrando en detalles, la publicación en línea Wired recogió las más recientes declaraciones de Apple sobre el tema. Por lo tanto, queda totalmente claro que la compañía ha optado por una ruta diferente para lograr sus objetivos.

“Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función Seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021. Además, hemos decidido no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos”.

Nuevamente, la manzana mordida tiene buenas intenciones con todo esto; pero la tecnología subyacente presenta muchos riesgos para la privacidad de sus usuarios y entra en el territorio de lo orwelliano. Por lo tanto, quizás sea lo mejor para la compañía abordar el problema desde otra dirección. Además, esto contrasta mucho con la imagen de empresa respetuosa de la privacidad que Apple trata de mantener públicamente.

Vía | Wired

GizLogic

Fuente: este post proviene de Gizlogic, donde puedes consultar el contenido original.
¿Vulnera este post tus derechos? Pincha aquí.
Creado:
¿Qué te ha parecido esta idea?

Esta idea proviene de:

Y estas son sus últimas ideas publicadas:

Recomendamos

Relacionado

Tecnología e Internet

La manzana americana ha anunciado medidas apuntadas a proteger a los menores de posibles abusos sexuales y de detener la circulación de pornografía infantil en sus servicios y dispositivos. Dichas medidas vendrán con Apple iOS 15, así como también con MacOS 12, iPadOS 15 y WatchOS 8.  Sin lugar a dudas el objetivo es noble, pero el método no está exento de polémica debido a los sacrificios en térm ...

Tecnología e Internet

Retomando la historia de ayer, habíamos establecido que existen muchas preocupaciones por parte de los defensores de la privacidad con respecto al nuevo software de Apple, NeuralMatch, el cual está encaminado a combatir el abuso sexual y la pornografía infantil. Como recordarán, el principal argumento gira en torno a la posibilidad que Apple esté construyendo una puerta trasera; la cual podría ser ...