Apple suspendió sus sistema para detectar pornografía infantil en Icloud
Apple suspendió sus sistema para detectar pornografía infantil en Icloud

De manera indefinida, Apple suspendió la implementación de su controversial sistema para controlar la pornografía infantil en iCloud.

El programa estaba previsto para lanzarse en Estados Unidos a finales de este mismo año, junto con medidas para detectar el envío de mensajes a o por menores de edad con control parental a través de iMessage.

LEER MáS: Abuelitos luchan por adaptarse a nuevas tecnologías

Apple suspendió sus sistema para detectar pornografía infantil en Icloud

En el comunicado, Apple indicó que “escuchará las alegaciones que ha recibido” después de su anuncio.

En su primera fase, las funciones para combatir el material de abuso sexual infantil llegarían sólo para Estados Unidos mediante las próximas actualizaciones de iOS.

Mientras tanto, Apple asegura que se tomará algo más de tiempo para “hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica”.

“El mes pasado anunciamos planes para prestaciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos.

Así limitar la propagación del material de abuso sexual infantil”, recita el comunicado.

LEER MáS: Tips para aprovechar Telegram durante este regreso a clases

Internet Watch Foundation denunció que los el mundo de la pornografía infantil deja cifras alarmantes: aseguran que cada siete minutos se muestra en internet a un menos siendo objeto de abusos sexuales.

El organismo informó que tan sólo en 2018 eliminó 78 mil 589 páginas web de todo el mundo que ofrecían este tipo de contenido.

“Basándonos en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones

hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica”, enfatizó Apple.

El 5 de agosto de este año, Apple anunció que emprendería un plan de lucha en contra de la pornografía infantil, con iniciativas para detectar este tipo de imágenes y, llegando el caso, denunciarlo a las autoridades.

Sin embargo, una de las iniciativas causó polémica: el control de las fotografías que los usuarios suben de forma automatizada a la plataforma iCloud de almacenamiento y sincronización.

Grupos de defensa de las libertades acusaron a Apple de escanear y espiar imágenes privadas. La compañía negó las acusaciones, argumentando que su sistema no escanea las imágenes.

Sino que compara unas claves alfanuméricas de las fotos con una base de datos.

 

Síguenos en Google News y mantente informado las 24 Horas