Destacado, Tecnología

Escaneo fotográfico de seguridad infantil de Apple: lo que necesita saber

La compañía Apple anunció un nuevo protocolo: escaneo automático de iPhones y iPads para verificar las fotos de los usuarios en busca de material de agresión sexual infantil (CSAM). La compañía está haciendo esto para limitar la propagación de CSAM, pero también está agregando otras características ‘para proteger a los niños de los depredadores que […]

Por Allan Brito
Escaneo fotográfico de seguridad infantil de Apple: lo que necesita saber
Facebook Twitter Whatsapp Telegram

La compañía Apple anunció un nuevo protocolo: escaneo automático de iPhones y iPads para verificar las fotos de los usuarios en busca de material de agresión sexual infantil (CSAM).

La compañía está haciendo esto para limitar la propagación de CSAM, pero también está agregando otras características ‘para proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos’, explicó Apple en una publicación de blog . Por ahora, las funciones solo estarán disponibles en EE. UU.

Apple instituirá una nueva función en iOS 15 y iPadOS 15 (que se espera que se lancen en los próximos meses) que escaneará automáticamente las imágenes en el dispositivo de un usuario para ver si coinciden con el contenido CSAM previamente identificado, que se identifica mediante hashes únicos (por ejemplo, un conjunto de números consistentes entre imágenes duplicadas, como una huella digital).

La verificación de hashes es un método común para detectar CSAM que la empresa de seguridad de sitios web CloudFare instituyó en 2019 y utilizado por Thorn, una organización sin fines de lucro contra el tráfico sexual infantil, cofundada por Ashton Kutcher y Demi Moore.

Además, Apple ha agregado dos sistemas que los padres pueden habilitar opcionalmente para los niños en su red familiar: primero, el análisis en el dispositivo en la aplicación Mensajes que escanea las fotos entrantes y salientes en busca de material que pueda ser sexualmente explícito, que estará borroso de manera predeterminada, y una configuración opcional puede informar a los padres vinculados a la cuenta si se visualiza el contenido.

Apple también está permitiendo que Siri y Search muestren recursos útiles si un usuario pregunta acerca de reportar CSAM; Ambos también intervendrán cuando los usuarios busquen consultas relacionadas con CSAM, informando al buscador del potencial dañino del material y señalando recursos para obtener ayuda.

Esa es una descripción general de cómo, según la propia descripción de Apple, integrará software para rastrear CSAM y ayudará a proteger a los niños de la depredación interviniendo cuando reciban (y envíen) fotos potencialmente inapropiadas.

Pero la perspectiva de que Apple escanee automáticamente su material ya ha suscitado preocupaciones entre los expertos en tecnología y los defensores de la privacidad; lo analizaremos a continuación.

¿Me afectará esto?

Si no tiene fotos con CSAM en su iPhone o iPad, nada cambiará para usted.

Si no realiza una consulta de Siri o una búsqueda en línea relacionada con CSAM, nada cambiará para usted.

Si la cuenta de su iPhone o iPad está configurada con una familia en iCloud y su dispositivo está designado como niño en esa red, verá advertencias y fotos borrosas si recibe fotos sexualmente explícitas. Si su dispositivo no está vinculado a una red familiar como perteneciente a un niño, nada cambiará para usted.

Por último, su dispositivo no obtendrá ninguna de estas funciones si no actualiza a iOS 15, iPadOS 15 o macOS Monterey. (Este último probablemente escaneará fotos de iCloud para CSAM, pero no está claro si la intervención de Mensajes para fotos sexualmente explícitas también ocurrirá cuando los usuarios de macOS Monterey usen la aplicación).

Estas actualizaciones solo llegan a los usuarios en los EE. UU., Y no está claro cuándo (o si) se expandirán a otros lugares, pero dado que Apple las está posicionando como medidas de protección, nos sorprendería que no las extendieran a los usuarios. en otros países.

¿Por qué Apple hace esto?

Desde una perspectiva moral, Apple simplemente está empoderando a los padres para que protejan a sus hijos y realicen un servicio social al frenar el CSAM. Como dijo la compañía en su publicación de blog, “este programa es ambicioso y proteger a los niños es una responsabilidad importante”.

Apple ha defendido repetidamente las características de privacidad de sus dispositivos y lo respalda con medidas como maximizar el análisis en el dispositivo (en lugar de cargar datos en los servidores de la empresa en la nube) y comunicaciones cifradas seguras de extremo a extremo, así como iniciativas como Transparencia de seguimiento de aplicaciones que debutó en iOS 14.5.

Pero Apple también ha estado en el extremo receptor de muchas demandas a lo largo de los años que aparentemente han empujado a la compañía a mayores protecciones de privacidad; por ejemplo, un defensor de los derechos del consumidor en la UE demandó al gigante tecnológico en noviembre de 2020 por la práctica de Apple de asignar cada uno. El iPhone es un identificador para anunciantes (IDFA) para rastrear a los usuarios en las aplicaciones, según lo informado por The Guardian .

Esto puede haber empujado a Apple a dar a los consumidores más control con la transparencia de seguimiento de aplicaciones, o al menos alineado con las acciones de la compañía en progreso.

TechRadar no pudo encontrar una demanda en particular que hubiera presionado a Apple para instituir estos cambios, pero es muy posible que la compañía se esté protegiendo de manera proactiva al brindar a los usuarios más jóvenes más herramientas de autoprotección, así como al eliminar CSAM en sus propios servidores iCloud y iPhones. en general, todo lo cual posiblemente podría limitar la responsabilidad de Apple en el futuro.

Pero si puede eliminar el material CSAM, ¿por qué no lo haría?

¿Qué piensan los investigadores de seguridad?

Poco después de que Apple presentara sus nuevas iniciativas, los expertos en seguridad y defensores de la privacidad hablaron alarmados; no, por supuesto, para defender el uso de CSAM, sino por preocupación por los métodos de Apple para detectarlo en los dispositivos de los usuarios.

La función de escaneo CSAM no parece ser opcional; es casi seguro que se incluirá en iOS 15 de forma predeterminada y, una vez descargada, será inseparable del sistema operativo.

A partir de ahí, escanea automáticamente las fotos de un usuario en su dispositivo antes de que se carguen en una cuenta de iCloud; si una cierta cantidad de una foto coincide con esos hashes CSAM durante un escaneo, Apple revisa manualmente la imagen marcada y, si lo determina sea ​​CSAM válido, la cuenta del usuario se cierra y su información se transmite al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que colabora con las fuerzas del orden.

Apple está teniendo mucho cuidado de mantener los datos de los usuarios encriptados e ilegibles para los empleados de la empresa, a menos que superen un umbral de similitud con CSAM conocido. Y según Apple, “el umbral está establecido para proporcionar un nivel extremadamente alto de precisión y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”.

Pero es el escaneo automático lo que tiene a los defensores de la privacidad en armas. “Una puerta trasera es una puerta trasera”, escribió en su publicación de blog Electronic Frontier Foundation

(EFF) , una organización sin fines de lucro de privacidad digital, en respuesta a la iniciativa de Apple, argumentando que incluso agregar esta tecnología de escaneo automático estaba abriendo la puerta a abusos de acceso potencialmente más amplios:

“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no solo las cuentas de los niños, sino de cualquier persona.

“Eso no es una pendiente resbaladiza; es un sistema completamente construido que solo espera la presión externa para hacer el más mínimo cambio”, escribió la EFF, señalando leyes aprobadas en otros países que requieren que las plataformas escaneen el contenido de los usuarios, como la reciente de India en 2021. reglas.

Otros en la industria de la tecnología también han rechazado la iniciativa de escaneo automático de Apple, incluido Will Cathcart, jefe del servicio de mensajería WhatsApp, propiedad de Facebook.

En un hilo de Twitter, señaló la práctica de WhatsApp de facilitar que los usuarios marquen CSAM, lo que, según él, llevó al servicio a informar más de 400.000 casos al NCMEC el año pasado, “todo sin romper el cifrado”.

Para ser justos, Facebook ha estado tratando de conseguir alrededor de la aplicación de seguimiento de Transparencia de Apple: después de ser forzado a revelar cómo la cantidad de datos de usuario de su aplicación móvil (y de WhatsApp app) de acceso, Facebook ha intentado que llevó a los usuarios para permitir que el acceso al criticar a Apple por aplicación de seguimiento de Transparencia daño a las pequeñas empresas (y, presumiblemente, Facebook) que dependen de esos ingresos publicitarios.

Otros expertos en tecnología están esperando que Apple brinde más información antes de ponerse del lado de la opinión de la EFF.

“La preocupación de la EFF y otros defensores de la privacidad sobre el uso indebido por parte de regímenes autoritarios puede ser aterradora o una reacción exagerada: Apple necesita proporcionar más detalles de implementación”, dijo Avi Greengart, fundador de la firma de análisis e investigación tecnológica Techsponential , a TechRadar a través de un mensaje de Twitter.

“Sin embargo, como padre, me gusta la idea de que iMessage marque el sexteo de menores de edad antes de enviarlo; cualquier cosa que ralentice temporalmente el proceso y les dé a los niños la oportunidad de pensar en las consecuencias es algo bueno “.

Relacionados