Apple ha decidido tomarse más tiempo del esperado para implantar las medidas de protección infantil que hizo oficiales a principios de agosto y con las que iba a ser capaces de escanear las fotografías de los usuarios para ser capaz de detectar pornografía infantil. 

Noticias relacionadas

Esta decisión levantó críticas tanto entre especialistas en privacidad como por parte de algunos usuarios, así como causó sorpresa entre algunos empleados de la compañía. Sin embargo, Apple se defendió argumentando que las nuevas herramientas se habían malinterpretado.

Craig Federighi, vicepresidente de ingeniería de software de Apple, respondió a las críticas en una entrevista asegurando que la información se había entendido mal, ya que el algoritmo de detección de imágenes no es capaz de detectar fotografías de este tipo por si mismo, sino que identificaría otras que ya hubiesen sido detectadas en ocasiones anteriores.

"Tomarnos más tiempo"

En cualquier caso, las explicaciones de la compañía norteamericana no han terminando de calar y Apple ha decidido tomarse un tiempo antes de que esta nueva funcionalidad de protección infantil llegue a sus dispositivos. 

"El mes pasado anunciamos planes para prestaciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil. Basándonos en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica", explica la empresa en un comunicado. 

De momento se desconoce cuándo podrían llegar estas nuevas herramientas, aunque se espera que aterricen en el mercado estadounidense antes que en el resto del mundo. 

Un proceso habitual

Federighi tenía razón en su argumentación cuando explicaba que otras tecnológicas como Google, Facebook o Microsoft siguen un protocolo de identificación parecido. Una forma de poner en alerta al equipo de seguridad de cada una de las plataformas en el caso de que se estén usando para compartir contenido sexual infantil. 

La diferencia que ha provocado la polémica con Apple es que ella ha trasladado ese escaneo al interior del teléfono que los usuarios consideran un espacio privado. "En su teléfono, cuando se cargan las imágenes en la biblioteca de iCloud, se realiza lo que se llama un hash neuronal en la imagen y se cruza con una base de datos que está en su dispositivo", explicaba entonces Federighi.

Los códigos hash de las fotos se comparan con otros los códigos generados para las fotografías ilegales recopiladas por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC). La base de datos con esas huellas dactilares se instala en el teléfono con la actualización de este nuevo sistema en iOS para cotejar las fotos propias con las reconocidas como pornografía infantil.

Parte del miedo de usuarios, empleados y especialistas era tanto la posibilidad de que el sistema pudiese dar falsos positivos y acusar de pornografía infantil quien no debe, así como que estas herramientas pudieran ir más allá de la detección de fotografías de abusos infantiles.