Un grupo de investigadores aseguró que hacer entre 10 y 50 preguntas al chat GPT-3 implica un consumo aproximado de dos litros de agua.
El gasto que generaría la interacción con el chatbot sería considerablemente mayor a lo que se habría calculado anteriormente, cuadriplicando las cifras que estimaban los expertos.
Cabe señalar que un chatbot es un asistente virtual desarrollado por la inteligencia artificial que fue creado para comunicarse con los usuarios en lenguaje natural y replicar diálogos similares a los de una persona
Colombia captura a Jeison Comino, el segundo cabecilla más importante del ‘Tren de Aragua’
El funcionamiento de la la Inteligencia Artificial (IA) es una tecnología que requiere grandes cantidades de recursos energéticos. Mientras que las funciones de la IA van avanzando, el requerimiento de los recursos también aumenta.
Según información que consigna INFOBAE, el motivo de este elevado consumo de recursos se debe a los servidores ubicados en centros de datos que procesan grandes volúmenes de información. Estos servidores generan una cantidad significativa de calor, lo que exige un sistema de refrigeración intensivo para mantener su eficiencia y fiabilidad operativa.
Un dato no menor es que el agua utilizada en estos procesos debe ser potable, lo que implicaría un mayor gasto, ya que las impurezas del agua no tratada pueden dañar los servidores. Además, informan que muchos de estos centros de datos emplean sistemas de refrigeración por evaporación, lo que significa que el agua no se reutiliza.
En septiembre de 2023, el Instituto de la Ingeniería de España (IIE) señaló que una consulta en ChatGPT consume tres veces más energía que una realizada en el motor de búsqueda de Google.
En ese sentido, diversas investigaciones sobre el consumo energético de la IA han sido publicadas por grupos académicos de la Universidad de Riverside (California) y la Universidad de Arlington (Texas).
En un estudio de octubre de 2023 titulado "Reduciendo la sed de la IA: Descubriendo y abordando la huella hídrica secreta de los modelos de IA)", investigadores de la Universidad de California calcularon el consumo de agua durante el entrenamiento de grandes modelos de lenguaje, usando ChatGPT como ejemplo.
Durante este proceso, en centros de datos de Microsoft en EE. UU. se descubrió que para generar entre 10 y 50 respuestas, GPT-3 requería aproximadamente 500 ml de agua, dependiendo de la complejidad de la consulta.
Según los expertos, con la llegada de GPT-4 que es un modelo más avanzado, se espera que el consumo de agua sea aún mayor debido a la mayor cantidad de cálculos necesarios para generar respuestas más precisas.
Un informe de The Washington Post de septiembre de 2023 reveló que GPT-4 utiliza 519 ml de agua, lo que equivale al contenido de una botella pequeña, para generar un correo electrónico de 100 palabras.
Algunas empresas están tomando medidas para reducir su huella hídrica. Por ejemplo, Google ha implementado un sistema de IA para optimizar la refrigeración de sus centros de datos, reduciendo en un 40% su consumo energético. Asimismo, Digital Realty está utilizando agua no potable, como agua de lluvia, mientras que Iceotope ha desarrollado un sistema de "refrigeración líquida de precisión" que elimina la necesidad de agua para enfriar sus servidores.
Estados Unidos lidera el mundo en términos de centros de datos, con más de 5.000 ubicaciones, muy por encima de los aproximadamente 600 centros en el Reino Unido. Además, los nuevos centros de datos en construcción en EE. UU. en los próximos años podrían consumir tanta agua como 500,000 personas, según el informe de Water UK.
Los expertos sugieren que las empresas de IA deben optimizar sus algoritmos y distribuir las cargas de trabajo a ubicaciones con mejores condiciones hídricas.