Saltar Aviso
EN VIVO
Mira En Vivo la edición de T13 Tarde
Smart13

Conoce cómo funciona el sistema de Apple para detectar abuso infantil

T13
Compartir
Messages y iCloud tienen esta nueva actualización que le entrega mayor seguridad a los padres de niños.

Hace algunos días la gran empresa Apple, anunció dos nuevas actualizaciones que ayduarána. entregar una mayor seguridad en sus dispositivos, las cuales detectaran cuando hay fotos que pueden contener contenido sexual de menores. 

Desde la empresa revelaron quee stas actualizaciones serán aplicadas en la aplicación Messages y en las fotos que son guardadas en la nube iCloud. 

Conoce cómo funciona el sistema de Apple para detectar abuso infantil
Conoce cómo funciona el sistema de Apple para detectar abuso infantil

Messages

Dicha aplicación alertará a los usuarios del envío y recepción de material sexualmente explícito en la nueva actualización de Seguridad de Comunicación y estará disponible en las cuentas de niños vínculada al plan "En Familia". 

La opción deberá ser habilitada por los padres o tutores, según lo que se explica en la sección de "Preguntas y Respuestas" de Apple. Cabe destacar que aseguraron que no acceden al contenido de la comunicación, ni reciben ningún tipo de información de ella.

"Si la característica se ha habilitado para la cuenta del niño, el dispositivo evaluará las imágenes en Messages y presentará una intervención si se determina que la imagen es sexualmente explícita", explican desde Apple.

Los padres o tutores recibirán una notificación cada vez que el nió envíe o reciba contenido de caracter sexual, sin embargo, esto ocurre luego de que el niño reciba una advertencia antes de enviar o recibir el contenido.

Conoce cómo funciona el sistema de Apple para detectar abuso infantil
Conoce cómo funciona el sistema de Apple para detectar abuso infantil

iCloud

Esto tiene una diferencia con lo anterior mencionado, ya que acá se analizará solo que sea guardado en la nube. No con todas las fotos, ni las que están guardadas en el dispositivo.

El sistema buscará coincidencias entre las imágenes que el usuario sube a iCloud Fotos y las que se encuentran en la base de datos de organizaciones policiales o de seguridad infantil.

"Estos ‘hashes’ son cadenas de números que representan imágenes de material de abuso sexual infantil conocidas, pero no es posible leer o convertir esos ‘hashes’ en las imágenes del material de abuso sexual infantil en las que se basan", explican desde la empresa.

"Utilizando nuevas aplicaciones de criptografía, Apple puede utilizar estos ‘hashes’ para obtener información únicamente sobre las cuentas de iCloud Fotos que almacenan colecciones de fotos que coinciden con estas imágenes de material de abuso sexual infantil conocidas y, luego, solo puede obtener información sobre las fotos que se conocen como material de abuso sexual infantil, sin conocer ni ver otras fotos", añaden.

 

Señal T13 En Vivo
Etiquetas de esta nota