Modelos de IA detrás de los chatbots infieren datos personales de usuarios: Incluso en conversaciones triviales
Desde el boom que registró la aplicación ChatGPT al inicio del presente año, que los chatbots de Inteligencia Artificial comenzaron a acaparar las miradas de diversos sectores de la sociedad.
Este tipo de herramientas lograron conseguir una enorme fanaticada y también algunos detractores. En este escenario es que se han generado debates en torno a la veracidad de la información que entregan, así como también, otros aspectos que han generado preocupación.
Una de las conclusiones que han surgido recientemente, es que estas "infieren con precisión la información personal de un usuario a partir de chats inofensivos".
Así lo ha establecido una reciente investigación realizada por la Escuela Politécnica Federal de Zurich, en Suiza, en que se determinó que estos famosos chatbots "son capaces de deducir mucha información sensible sobre las personas con las que charlan, aunque la conversación sea completamente trivial".
Este estudio, que fue citado por el medio tecnológico Wired, explicó que "los modelos de IA que sirven de base a estos robots se alimentan de enormes cantidades de datos extraídos de la web, lo que les confiere sensibilidad a los patrones del lenguaje", lo que a su vez facilita que puedan "hacer suposiciones sobre alguien a partir de lo que escribe, que quizá parezca algo sin importancia".
En base al análisis de los mecanismos descritos, el portal citado confirmó que "los experimentos demostraron que también hacen conjeturas impresionantemente precisas sobre la ciudad, el género, la edad y la origen racial de un individuo":