Teoría dice que ChatGPT es tan humano que se volvió "flojo" porque se acercan las vacaciones
ChatGPT se está poniendo flojo. Así lo advierten desde hace algún tiempo distintos usuarios, quienes señalan que el chatbot ya no es lo que solía ser. ¡Y tienen razón!
OpenAI, que desarrolló ChatGPT en 2022, confirmó la semana pasada que GPT4, uno de los sistemas que impulsa a su chatbot de inteligencia artificial, se ha vuelto más “perezoso”, explicando el por qué.
“Hemos escuchado todos sus comentarios acerca de que GPT4 se está volviendo más perezoso. No hemos actualizado el modelo desde el 11 de noviembre y ciertamente esto no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando solucionarlo”, expuso el pasado viernes la cuenta de X de ChatGPT.
Las críticas de los usuarios no sólo apuntan a que el bot se ha vuelto más holgazán. También afirman que está menos creativo, menos dispuesto a seguir instrucciones y menos capaz de permanecer en cualquier función.
Incluso, informes sobre los nuevos problemas de personalidad del bot, exponen una actitud “atrevida”. El sitio Semafor reveló que el fundador de una startup le pidió enumerar los días de la semana hasta el 5 de mayo, pero la respuesta de ChatGPT fue que no podía realizar una “lista exhaustiva”.
¿Está ChatGPT esperando sus vacaciones?
Más allá de su versión entregada, OpenAI no tiene claridad sobre por qué el bot se puso flojo, dando pie para que los usuarios se aventuren en un sinnúmero de teorías al respecto.
Flaviana Seeling comunicó triste pérdida de su embarazo con emotiva publicación: recibió apoyo de varias famosas
Algunos bromean con que el robot podría estar sufriendo algún tipo de depresión durante los meses de invierno boreal. Sin embargo, otra apunta a que el bot podría haber “aprendido” a hacer menos trabajo en esta época, a medida que se acercan las vacaciones (de invierno en el hemisferio norte). Esta última versión incluso recibió cierto apoyo de un desarrollador.
Rob Lynch comentó en X que una prueba que realizó en GPT4 Turbo encontró respuestas más cortas cuando el modelo se alimenta con una fecha de diciembre, versus cuando se alimenta con una fecha de mayo. Lynch animó a otros usuarios a ver si podían reproducir la prueba.
Otro investigador de IA, Ian Arawjo, expuso por su parte que la prueba tenía fallas fundamentales y que los resultados no pueden reproducirse.
“No, ChatGPT no tiene trastorno afectivo estacional”, aseguró en la red social.