Apple escaneará iPhone’s en busca de fotos de abuso y pornografía infantil
LOS ÁNGELES. * 6 de agosto de 2021.
) AP.
Apple reveló sus planes para escanear los iPhone’s de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida.
La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes de que sean subidas a iCloud.
Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
- Published in LIFESTYLES, Sexualidad y Géneros