Santa Clara, CL.- Apple anunció nuevas medidas para proteger a los más pequeños frente a este tipo de prácticas. Una de las más medidas más importantes es el nuevo sistema para buscar de forma automática contenido sobre actividades sexualmente explícitas que involucran a un niño.
Sin dejar de respetar la privacidad, asegura la compañía. Tanto esa como el resto de nuevas herramientas se activarán inicialmente en Estados Unidos a finales de este año.
Ver más: Apple desplazada por Xiaomi
Según Apple, este método respeta la privacidad del usuario porque, en lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de imágenes ya conocidas proporcionadas por organizaciones de protección infantil.
Previamente, Apple transforma esa base de datos en un conjunto ilegible de hashes que se almacenan de forma segura en los dispositivos de los usuarios.
En ese momento, el dispositivo codifica el resultado de la coincidencia junto con datos encriptados adicionales sobre la imagen y los carga en Fotos de iCloud junto con la imagen.
A su vez, la tecnología llamada Umbral de Intercambio Secreto garantiza que Apple no pueda interpretar el contenido a menos que la cuenta de iCloud Fotos supere el límite marcado de contenido legal.
Ver más: Se filtra que Netflix incluirá videojuegos para 2022
Asimismo, la aplicación «Mensajes», también añadirá nuevas herramientas para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas.
Según la compañía, la función ha sido desarrollada para que Apple no tenga acceso a los mensajes y respetar así la privacidad de los usuarios. Finalmente, esta normativa se implementará a finales de este año. Esto, en las cuentas configuradas como Familia en iCloud para iOS 15, iPadOS 15 y macOS Monterey.
Video: APPLE PRESENTA IPHONE 12