Tecnología

Apple responde a las críticas y explica cómo funcionará su polémico control de pornografía infantil

Apple anunció el lanzamiento de una herramienta que le permitirá detectar imágenes de abuso sexual infantil en sus dispositivos. La medida generó una lluvia de críticas a la que la compañía respondió con un informe en el que explicó en detalle si realmente pone en riesgo la privacidad de los usuarios.
Lea en Sputnik
En el documento, titulado Protecciones ampliadas para niños, afirma que la herramienta solo accederá a las imágenes guardadas en el almacenamiento de la nube iCloud y no podrá ver la galería de fotos de tu iPhone. Al mismo tiempo, analizará las imágenes enviadas por los menores a través de la app de mensajería instantánea iMessage.
Luego, un algoritmo de inteligencia artificial comparará las fotos con las de un catálogo de imágenes del abuso sexual de niños proporcionadas por varias organizaciones de seguridad infantil, en busca de coincidencias y similtudes. Los niños menores de 12 años que envían o reciben imágenes explícitas solo podrán ver su versión censurada, mientras que sus padres recibirán una notificación parental.
En cuanto a la propia Apple, no podrá ver dichas imágenes, asegura. Los adolescentes mayores de 13 años, a su vez, podrán escoger si quieren ver las fotos explícitas, mientras que sus padres no serán notificados.
Tecnología
Critican a Apple por las nuevas e inevitables funciones de protección infantil
Pero, ¿significa esto que Apple va a descargar el porno infantil en tu dispositivo para compararlo con tus fotos?
No, en vez de esto utilizará los denominados hashes criptográficos que contienen ciertas cadenas de números de la imagen original pero no pueden ser convertidas de nuevo en la foto. Tampoco podrá acceder al resto de las imágenes ni documentos almacenados en tu iPhone o iCloud.
El abuso y la explotación sexual infantil en el contexto de la pandemia de COVID-19
Apple recuerda que otras compañías suelen analizar todas las fotos de sus usuarios, por lo que la nueva herramienta es mucho más segura. Agrega que en la mayoría de los países, guardar pornografía infantil es un crimen, por lo que todos los casos sospechosos serán reportados a las autoridades competentes. Cabe señalar que no se trata de los reportes automáticos, pues las imágenes también serán revisadas por una persona.
La compañía también explica si las autoridades pueden de alguna manera agregar los hashes de las imágenes no pornográficas en la lista roja.
"Apple rechazará tales demandas", afirma. Revela que "ya se ha enfrentado a exigencias de construir y desplegar cambios ordenados por el Gobierno que degraden la privacidad de los usuarios, pero se ha negado firmemente a esas demandas".
Los hackers tampoco podrán "inyectar" códigos de imágenes explícitas en la base de datos de Apple. En general, se trata de una herramienta altamente precisa que solo cometerá un error en menos de uno de cada billón de casos.
Discutir