Destacado, Tecnología

La fórmula de Apple para eliminar imágenes de abuso sexual infantil

Un nuevo software de Apple es esperado para finales de este año, y se espera que analice las fotos almacenadas en la cuenta de iCloud Photos de un usuario en busca de imágenes sexualmente explícitas de niños y luego informará las instancias a las autoridades pertinentes. Apple también anunció una función que analizará las fotos […]

Por Allan Brito
La fórmula de Apple para eliminar imágenes de abuso sexual infantil
Facebook Twitter Whatsapp Telegram

Un nuevo software de Apple es esperado para finales de este año, y se espera que analice las fotos almacenadas en la cuenta de iCloud Photos de un usuario en busca de imágenes sexualmente explícitas de niños y luego informará las instancias a las autoridades pertinentes.

Apple también anunció una función que analizará las fotos enviadas y recibidas en la aplicación Mensajes hacia o desde niños para ver si son explícitas. La compañía de la manzanatambién está agregando funciones en su asistente de voz digital Siri para intervenir cuando los usuarios buscan material abusivo relacionado. 

El gigante tecnológico con sede en Cupertino, California, anticipó las tres nuevas funciones este jueves y dijo que se pondrían en uso más adelante en 2021. Reseñó Al Jazeera.

Si Apple detecta un umbral de fotos sexualmente explícitas de niños en la cuenta de un usuario, las instancias serán revisadas manualmente por la empresa y reportadas al Centro Nacional para Niños Desaparecidos y Explotados, o NCMEC, que trabaja con las agencias de aplicación de la ley. Apple dijo que las imágenes se analizan en el iPhone y el iPad de un usuario en los EE. UU. Antes de que se carguen en la nube.

Apple dijo que detectará imágenes abusivas comparando fotos con una base de datos de material conocido de abuso sexual infantil, o CSAM, proporcionada por el NCMEC. La compañía está utilizando una tecnología llamada NeuralHash que analiza imágenes y las convierte en una clave hash o un conjunto único de números. Luego, esa clave se compara con la base de datos mediante criptografía. Apple dijo que el proceso garantiza que no pueda aprender sobre imágenes que no coincidan con la base de datos.

Apple dijo que su sistema tiene una tasa de error de “menos de uno en 1 billón” por año y que protege la privacidad del usuario.

Relacionados