Apple escanea fotografías para acabar con la explotación infantil
Ciberseguridad y Cumplimiento Simplificado para Startups y PYMEs en México y LATAM 🔐
Apple ha anunciado que habrá cambios muy importantes en sus sistemas operativos, los cuales incluyen nuevas herramientas para la protección de niños en iCloud y iMessage. Dada la gravedad de la explotación infantil en la actualidad, Apple ha tomado la decisión de cambiar su sistema de protección de la privacidad con el objetivo de combatir este problema. Para lograrlo, creó una puerta trasera en el sistema de almacenamiento de datos y de mensajería. Lo anterior tendrá implicaciones importantes para la privacidad y seguridad del usuario, ya que aunque su puerta trasera sea completamente legal esté cuidadosamente elaborada y tenga un alcance limitado, sigue siendo una puerta trasera.
Apple escanea fotografías para acabar con la explotación infantil
¿Qué es una puerta trasera? Seguramente ya has escuchado el término de “backdoor” o “puerta trasera” con relación a los ciberataques, este concepto se refiere a una puerta secreta o una manera de entrar a un sistema sin ser detectado. En otras palabras, una puerta trasera es una vulnerabilidad en el sistema, la mayoría de estas son resultado de un error humano, pero también existen algunas puertas que se crean a propósito con buenas o malas intenciones, como lo vemos en este caso.
Hay dos funciones que se pretenden instalar en todos los dispositivos Apple. La primera es una función que escaneará todas las fotos que se almacenen en Fotos de iCloud para descifrar si alguna de estas coincide con la base de datos de material catalogado como abuso sexual infantil o con el archivo del Centro Nacional de Niños Desaparecidos y Explotados en Estados Unidos. Todas las fotos cargadas en Fotos de iCloud serán escaneadas provocando una disminución de la privacidad para todos los usuarios de esta aplicación. La segunda función también escaneará todas las imágenes enviadas o recibidas por niños menores de edad por iMessage. Si alguna de estas fotos o imágenes es detectada con algún material explícito, se le notificará al usuario y se le pedirá una autorización para poder visualizar la imagen. En algunos casos y, dependiendo de la edad del usuario, también se le notificará a los padres del menor cuando se haga alguna búsqueda de material sexualmente explícito o se descargue alguna foto explícita. Esta última función podrá ser activada o desactivada por los padres.
Han surgido muchas críticas en contra de Apple, pues es imposible construir un sistema de escaneo únicamente para imágenes sexualmente explícitas enviadas o recibidas por niños. Aunque las intenciones de Apple sean buenas, este cambio en su sistema operativo solo acabará con las promesas del encriptado de extremo a extremo que tenía iMessage. Hoy, lo lo que se persigue son los casos de abuso, sin embargo esto podría ser modificado de acuerdo con el país o la sociedad. Los gobiernos, por ejemplo, podrían prohibir la homosexualidad y hacer que el clasificador registre cualquier contenido LGBTQ+, o un régimen autoritario podría hacer que el clasificador busque información que perjudique su popularidad. Un sistema de mensajería seguro es aquel que cuenta con un sistema en el que solo el usuario y sus destinatarios puedan leer los mensajes o analizar su contenido.
Hasta ahora, estas actualizaciones solo se han implementado en Estados Unidos, pero de ser exitosas, se pretende expandirlas a otros países. Esto solo significa que las nuevas actualizaciones de escaneo perjudican al usuario, disminuyendo su privacidad y seguridad. Algunos países podrían exigir que las empresas proporcionen acceso y control sobre mensajes y otro tipo de información. Ante estas preocupaciones, Apple ha prometido que rechazará cualquier tipo de demanda por parte del gobierno para crear e implementar cambios que degraden la privacidad de los usuarios. Sin embargo,aún existe una posibilidad de que estos cambios se realicen, ya que Apple no está diciendo que “no puede”, sino que “no lo hará”.