Hace algunos días la gran empresa Apple, anunció dos nuevas actualizaciones que ayduarána. entregar una mayor seguridad en sus dispositivos, las cuales detectaran cuando hay fotos que pueden contener contenido sexual de menores.
Desde la empresa revelaron quee stas actualizaciones serán aplicadas en la aplicación Messages y en las fotos que son guardadas en la nube iCloud.
Messages
Dicha aplicación alertará a los usuarios del envío y recepción de material sexualmente explícito en la nueva actualización de Seguridad de Comunicación y estará disponible en las cuentas de niños vínculada al plan "En Familia".
La opción deberá ser habilitada por los padres o tutores, según lo que se explica en la sección de "Preguntas y Respuestas" de Apple. Cabe destacar que aseguraron que no acceden al contenido de la comunicación, ni reciben ningún tipo de información de ella.
"Si la característica se ha habilitado para la cuenta del niño, el dispositivo evaluará las imágenes en Messages y presentará una intervención si se determina que la imagen es sexualmente explícita", explican desde Apple.
Los padres o tutores recibirán una notificación cada vez que el nió envíe o reciba contenido de caracter sexual, sin embargo, esto ocurre luego de que el niño reciba una advertencia antes de enviar o recibir el contenido.
iCloud
Esto tiene una diferencia con lo anterior mencionado, ya que acá se analizará solo que sea guardado en la nube. No con todas las fotos, ni las que están guardadas en el dispositivo.
El sistema buscará coincidencias entre las imágenes que el usuario sube a iCloud Fotos y las que se encuentran en la base de datos de organizaciones policiales o de seguridad infantil.
"Estos ‘hashes’ son cadenas de números que representan imágenes de material de abuso sexual infantil conocidas, pero no es posible leer o convertir esos ‘hashes’ en las imágenes del material de abuso sexual infantil en las que se basan", explican desde la empresa.
"Utilizando nuevas aplicaciones de criptografía, Apple puede utilizar estos ‘hashes’ para obtener información únicamente sobre las cuentas de iCloud Fotos que almacenan colecciones de fotos que coinciden con estas imágenes de material de abuso sexual infantil conocidas y, luego, solo puede obtener información sobre las fotos que se conocen como material de abuso sexual infantil, sin conocer ni ver otras fotos", añaden.