Una de las principales revistas científicas de Australia recibió críticas el jueves por una serie de artículos generados por inteligencia artificial (IA) (Chat GPT) que los expertos consideraban incorrectos o demasiado simplificados.
Cosmos, publicada por una agencia científica respaldada por el gobierno australiano, usó el programa de Open AI Chat GPT-4 para producir seis artículos el mes pasado.
Aunque la revista reconoció el uso de la IA en su elaboración, la Asociación de Periodistas Científicos de Australia expresó una serie de preocupaciones por el resultado.
Su presidente Jackson Ryan dijo a la AFP que en un artículo titulado "¿Qué pasa con nuestros cuerpos tras la muerte?", las descripciones del proceso científico eran incorrectas o demasiado simples.
Por ejemplo, el programa de IA escribe que el rigor mortis ocurre entre tres y cuatro horas después del deceso. Pero Ryan explica que la investigación científica apunta que el plazo es menos definitivo.
Otro ejemplo incluye la descripción de la autolisis, un proceso en el que las células se destruyen por sus enzimas, pero la revista asegura que "se autodestruyen". Según Ryan, es una descripción demasiado pobre del proceso.
Según un portavoz de la agencia nacional de ciencia que publica la revista, el contenido generado por IA fue revisado por "un comunicador científico formado y editado por el equipo editorial de Cosmos".
Aun así, la revista se comprometió a seguir revisando el uso del servicio de la IA en este experimento, agregó.
Un exdirectora de la revista, Gail MacCallum, dijo a la cadena australiana ABC que era una "gran partidaria de explorar la IA", en este caso Chat GPT, pero que crear artículos con ella iba "más allá de mi zona de confort".
Otro exdirector, Ian Connellan, explicó al mismo medio que no había sido informado de este proyecto y que, si lo hubiera estado, habría advertido de que era "una mala idea".