La red social más usada del mundo, Facebook, informó este miércoles que entre abril y septiembre de este año desactivó 3.200 millones de cuentas falsas, en su mayoría gestionadas por robots, a la vez que eliminó 11,4 millones de contenidos que incitaban al odio.
En la cuarta edición de su informe sobre el cumplimiento de las normas comunitarias, la empresa que dirige Mark Zuckerberg explicó los avances llevados a cabo por la compañía en materia de lucha contra las cuentas y la información falsas, las actividades ilegales y los contenidos que considera no adecuados.
Los 3.200 millones de cuentas falsas desactivadas en el segundo y tercer trimestre del año suponen más del doble que las 1.554 millones de cuentas desactivadas en el mismo período de 2018.
Además de los contenidos del llamado "discurso del odio", también destacan los 18,5 millones de mensajes retirados por contener desnudez y explotación sexual infantil; los 4,5 millones relativos a suicidios o a autolesiones; y los 5,7 millones que buscaban acosar a otros usuarios.
Inteligencia artificial clave
Se trata de la primera vez que la empresa de Menlo Park (California, EE.UU.) incluye entre estas métricas los contenidos relativos a suicidios o autolesiones, y el vicepresidente de Facebook para Integridad, Guy Rosen, se felicitó de que el 96,1 % de ellos en el segundo trimestre del año y el 97,1 % en el tercero fueron detectados proactivamente por la compañía antes de que nadie los denunciase.
"La inversión que hemos hecho en inteligencia artificial en los últimos cinco años sigue siendo un factor clave para abordar estos problemas. De hecho, los recientes avances en esta tecnología han contribuido a detectar y eliminar el contenido que viola nuestras políticas", apuntó Rosen al presentar el informe.