Apple está retrasando sus funciones de protección infantil anunciadas el mes pasado, incluida una función controvertida que escanearía las fotos de los usuarios en busca de material de abuso sexual infantil (CSAM), tras las intensas críticas de que los cambios podrían disminuir la privacidad del usuario. Se había programado que los cambios se implementaran a finales de este año.
“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil”, dijo Apple en un comunicado a The Verge. “Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.
El comunicado de prensa original de Apple sobre los cambios, cuyo objetivo era reducir la proliferación de material de abuso sexual infantil (CSAM), tiene una declaración similar en la parte superior de la página. Ese comunicado detalló tres cambios importantes en las obras. Un cambio en Search y Siri apuntaría a recursos para prevenir CSAM si un usuario buscaba información relacionada.
Los otros dos cambios fueron objeto de un escrutinio más significativo. Uno alertaría a los padres cuando sus hijos estuvieran recibiendo o enviando fotos sexualmente explícitas y desenfocaría esas imágenes para los niños. El otro habría escaneado imágenes almacenadas en las fotos de iCloud de un usuario para CSAM y las habría informado a los moderadores de Apple, quienes luego podrían remitir los informes al Centro Nacional para Niños Desaparecidos y Explotados, o NCMEC.
