El favorito a ganar las elecciones en Bogotá alardea de un acuerdo sucio con encuestadores y un controvertido político confiesa haber sobornado diputados. Supuestos audios creados con inteligencia artificial (IA) enlodan la recta final de las elecciones locales de Colombia.
Usualmente imposibles de verificar, los audios circulan por WhatsApp, Twitter y TikTok y se usan como propaganda o coartada para desmarcarse de un escándalo. En el río revuelto de falsificaciones, algunos candidatos aprovechan para desacreditar denuncias en su contra con el mantra: "Fue hecho con inteligencia artificial".
Colombia, que celebrará este domingo elecciones regionales, sigue los pasos de países como Venezuela, México y Estados Unidos, donde el contenido creado con IA ya comienza a desdibujar los límites entre la realidad y las falsificaciones digitales.
"Cheap Fakes" con Inteligencia Artificial
"Funcionó el pago y la inflada de las encuestas, la gente se la creyó. Eso nos va poner a (Gustavo) Bolívar y a mí en segunda vuelta, según el plan", se escucha decir a una voz impostada y muy similar a la del aspirante a la alcaldía de Bogotá Carlos Fernando Galán.
Favorito en los sondeos para pasar al balotaje con el oficialista Gustavo Bolívar, el candidato centrista desmintió el audio: "Ahora con inteligencia artificial están creando mi voz para decir cosas que nunca he dicho. Es increíble (...), es guerra sucia", alegó Galán en un video publicado en su cuenta de X (antes Twitter), sin precisar quién estaría detrás de la pieza.
Según el editor del portal especializado Muchohacker.lol, Camilo Andrés García, "uno no podría saber con exactitud si esto es falso o no".
Sin embargo la entonación robótica y las pausas en la dicción llevan a García a pensar que sí se trata de una falsificación "rústica" de la voz de Galán creada con alguna herramienta digital.
Para Juan Felipe Rodrigo, autor de una investigación sobre "deepfakes" -videos creados con IA que reproducen gestos exactos y tono de voz de una persona- "esto es un 'cheap fake', es decir montajes que se nota a leguas son falsos".
Es apenas la muestra de lo que puede ocurrir más adelante con "deepfakes", como ya pasa en Estados Unidos, donde a principios de este año circuló en TikTok un audio realista pero falso del presidente Joe Biden y su probable rival en las elecciones de 2024, Donald Trump, arrojándose insultos.
A pesar de su pobre calidad, el supuesto audio de Galán fue presentado como real por varios usuarios de TikTok y Twitter.
"Es sospechoso, pero cuando usted lo escucha siente una duda (...) deben existir personas o agencias en Colombia que están probando cómo hacer estas cosas", sostiene García, quien probó hacer una réplica de la voz de Galán introduciendo muestras de sus intervenciones en un programa de IA que cuesta un dólar.
Coartada perfecta
Durante la campaña, una decena de políticos salpicados por escándalos alegaron en su defensa que se trataba de campañas de desprestigio con audios supuestamente hechos con inteligencia artificial.
García, sin embargo, duda de la veracidad de muchas de estas afirmaciones y sostiene que puede tratarse de una estrategia de "marketing político".
El candidato a la alcaldía de Sincelejo (norte) Yahir Acuña se escucha en un supuesto audio hacer un recuento de sobornos entregados a políticos a cambio de apoyos a su aspiración.
"El hecho de que se parezca a mi voz no me hace responsable. Hay aplicaciones que simulan la voz de las personas", se defendió en W Radio.
"La inteligencia artificial hace maravillas. Yo no recuerdo haber tenido esas conversaciones", enfatizó Acuña, un exparlamentario investigado por posibles vínculos con narcotraficantes.
Y el viernes, a 48 horas de la apertura de los puestos de votación, el gobernador saliente del departamento de Quindío, Roberto Jaramillo, pidió a la fiscalía "cotejar mediante pruebas forenses un audio difundido en redes (sociales) en el que fue utilizada inteligencia artificial para clonar" su voz.
La grabación en la que Jaramillo coordina actividades de campaña con uno de los aspirantes a sucederlo -actividad prohibida en Colombia- fue difundida por el periodista de investigación Daniel Coronell, que defiende su veracidad basada en el concepto de un experto en inteligencia artificial.
Sin embargo, García precisa que "al día de hoy no hay ningún aplicativo que detecte con toda certeza si un sonido fue creado con IA, como sí sucede con las imágenes".