Revista Tecnología

Apple retrasa NeuralHash, su tecnología para identificar material de abuso sexual infantil

Publicado el 07 septiembre 2021 por Golpedegato

Apple anunció que posterga la ejecución de su tecnología NeuralHash que iba a aplicarse para identificar contenido de abuso sexual infantil CSAM (Child Sexual Abuse Material), iba a lanzarse durante setiembre con las actualizaciones sus sistemas operativos iOS 15, iPadOS 15, watchOS 8 y MacOS Monterey pero se ha postergado (quizás hasta finales de año)

La empresa afirmaba que el método elegido apenas interfería en la privacidad de los usuarios, los rastreos son anónimos y que se llevan a cabo comprobaciones para evitar falsos positivos, el código hash no es único para una imagen.

Todas las fotografías que se subieran a iCloud pasan a ser procesadas para generar un código hash que posteriormente sería contrastado con una base de datos de códigos de hash de material CSAM identificado con anterioridad y suministrada por el Centro Nacional para Niños Desaparecidos y Explotados NCMEC y otras entidades americanas de proteccion de menores.

A medida que se van identificando un alto grado de similitud entre los códigos hash se calcula la existencia de una cantidad de material en la cuenta (aproximadamente 30) y se emiten alertas para que personal humano verifique el material, corroborada las imágenes se suspende la cuenta del usuario y se efectúa la denuncia a las autoridades correspondientes.

Los ingenieros de Apple están revisando la tecnología e incorporando recomendaciones de expertos y grupos de defensa con el fin de refinar su herramienta.

Se han denunciado posibles riesgos como el uso de la tecnología como medio de vigilancia y censura por parte de gobiernos autoritarios contra jóvenes LGBTI o que estos sean víctimas de padres represivos.

El grupo Fight for Freedom que lucha por los derechos digitales califico la herramienta como una amenaza a la privacidad y a la libertad y que NeuralHash se convierte en sí en una puerta trasera. Entre las organizaciones que se han sumado a las críticas tenemos a la Union Americana de Libertades Civiles ACLU la Asociacion Canadiense de Libertades Civiles la australiana Digital Rights Watch la britanica Liberty y a Privacy International. Hay más de 5 000 que han firmado una carta de protesta.

Se contempló un segundo mecanismo en su programa de mensajería Messages, si un menor de edad (quien recibe una advertencia previa) recibe o envía una imagen con material sexual explícito podrían notificar a sus padres o tutores, siendo opcional esto último.


Volver a la Portada de Logo Paperblog