Este jueves, la empresa Google admitió que "expertos del lenguaje" contratados por la firma, escuchan aproximadamente 0,2% de las conversaciones que los usuarios mantienen con su asistente virtual, es decir, una parte de las interacciones no son completamente privadas.
Según El País, "la revelación llegó de la mano del responsable de producto de búsquedas de la compañía californiana David Monsees, quien publicó una entrada en el blog oficial de Google como respuesta a una información aparecida ayer en la televisión belga VRT NWS, que pudo acceder a alrededor de un millar de grabaciones de individuos anónimos".
VTR NWS accedió a alrededor de mil fragmentos de conversaciones, de las que 153 eran conversaciones en las que nadie dio la orden de activación al asistente virtual, sino que este interpretó erróneamente un sonido. El medio belga aseguró haber escuchado conversaciones en la cama, entre padres y sus hijos, llamadas profesionales, discusiones y escenas tanto de sexo como de violencia.
Las grabaciones habrían sido filtradas por uno de los "expertos" contratados por Google.
La empresa reaccionó, y este jueves dijo que el 0,2% de estas conversaciones son escuchadas por seres humanos para, aseguran, mejorar la calidad del servicio, arroja luz sobre una práctica que las empresas por lo general evitan publicitar, aunque es conocido dentro de la industria que en menor o mayor medida, es algo habitual.
La Tv belga, sin embargo, fue capaz de identificar "direcciones postales y otra información delicada", en las grabaciones, lo que les permitió ponerse en contacto con las personas cuya voz había sido grabada y confirmar que efectivamente se trataba de ellos. "Una pareja de Bélgica reconoció inmediatamente la voz de su hijo y de su nieto", dijo VRT NWS.
Google indicó que el asistente virtual solo les envía las grabaciones de audio una vez detectado que el usuario está interactuando con él tras haber dicho, por ejemplo, "Hey, Google" y que dispone de varias herramientas para evitar las "activaciones falsas", es decir, que el software interprete un sonido erróneamente como la palabra clave para activarse.
Google tomará acciones por la filtración al considerarla una "violación" de sus políticas de seguridad de datos, y admitió contar con "expertos en todo el mundo" cuya función es escuchar y transcribir "una pequeña parte de los diálogos para ayudarnos a comprender mejor esos idiomas".