El éxito de los chatbots basados en grandes modelos de lenguaje ha disparado su demanda energética hasta niveles comparables al consumo de ciudades y países enteros, siendo el consumo energético de ChatGPT durante un año el equivalente al de Madrid durante más de siete meses.
Los chatbots impulsados por grandes modelos de lenguaje (LLM) han revolucionado el mundo de la IA, haciéndola accesible a cualquier persona con simplemente disponer de un smartphone o acceso a Internet, ya sea para resolver dudas o llevar a cabo múltiples tareas de su día a día, desde redactar texto, a generar imágenes o resolver problemas de matemáticas complejos.
Así, lo que comenzó como una herramienta sencilla donde resolver dudas, ha pasado a convertirse en sistemas avanzados de IA capaces de razonar, codificar e, incluso, tomar decisiones. En este sentido, OpenAI de la mano de su asistente ChatGPT se posiciona como una de las empresas líderes del sector, con más de 700 millones de usuarios activos semanales, según datos compartidos por la compañía en septiembre, una cifra que ha ascendido a casi 900 millones actualmente, según The Information.
Como resultado, el chatbot es una de las aplicaciones más populares entre los usuarios a nivel global y, por tanto, recibe millones de solicitudes al día, lo que se traduce en un alto consumo energético, tanto, que rivaliza con el consumo de ciudades, como ha compartido el portal de análisis y trading BestBrokers.
Este consumo se ve influido por los avances de los modelos que, a medida que son más capaces, su demanda energética aumenta con la misma rapidez, ocasionando una alta presión para las redes eléctricas y preocupación por el coste ambiental de esta tecnología.
Así, aunque es difícil estimar cuánta energía es necesaria para llevar a cabo el proceso de inferencia de un modelo, ya que varía dependiendo de la longitud de la consulta, la eficiencia de ejecución o el número de usuarios, una investigación elaborada por el laboratorio de IA de la Universidad de Rhode Island, ha concluido que ChatGPT-5 consume entre 2 y 45 vatios por mensaje de longitud media.
Esto equivale a un consumo promedio de unos 18,9 vatios-hora, lo que ya supera en más de 50 veces la energía de una búsqueda típica a través de Google, como ha apuntado la compañía, en base a un estudio realizado por el Instituto de Investigación de Energía Eléctrica en Estados Unidos.
Pero el consumo energético va más allá, haciendo sombra a la alta demanda eléctrica de algunos de los países y ciudades de Europa. Concretamente, la compañía ha matizado que el consumo anual de ChatGPT por sí mismo asciende a aproximadamente 17,3 teravatios-hora de electricidad al año.
Comparado con el caso de España, que registra un consumo medio de unos 29 kWh diarios por hogar, la energía que utiliza ChatGPT podría abastecer a los ciudadanos durante 23 días y 6 horas. Igualmente, si se compara con el consumo de Madrid, podría abastecer a la ciudad durante aproximadamente 7 meses y 19 días.
Lo mismo ocurre con otras ciudades relevantes, como es el caso de París (Francia) donde podría abastecer a la ciudad durante más de un mes, Londres (Reino Unido), durante más de cinco meses y Berlín (Alemania) durante alrededor de un año y cinco meses. Incluso, en países como Copenhague (Dinamarca) y Ámsterdam (Países Bajos), el consumo de ChatGPT es el equivalente al de más de 4 años.
Asimismo, se prevé que, con este consumo, podría abastecer a Reino Unido durante casi 20 días, a Alemania durante 12 días y a Francia durante 13 días, según los cálculos de BestBrokers.
A todo ello hay que sumarle que, para mantener el funcionamiento continuo del modelo, OpenAI cuenta con un coste energético anual estimado de 2420 millones de dólares, teniendo en cuenta las tarifas eléctricas comerciales actuales. Todo ello pone de relieve la importante demanda de recursos que implica la implementación de IA a gran escala.
Como ha valorado el analista de datos de BestBrokers, Alan Goldberg, “las operaciones diarias consumen electricidad a una escala que rivaliza con la de naciones enteras, mientras que las demandas computacionales de entrenamiento e inferencia alcanzan decenas de gigavatios-hora”.
En este sentido, ha destacado que las mejoras de eficiencia para los modelos se ven superadas por el constante crecimiento del uso global y la “expansión implacable de los parámetros de los modelos.
Teniendo todo ello en mente, ha puesto sobre la mesa la necesidad de una “transparencia rigurosa” y de “estándares de optimización exigibles”. Esto se debe a que, sin ello, la rápida aceleración de la IA corre el riesgo de “imponer profundas presiones infraestructurales y ambientales, lo que plantea interrogantes urgentes sobre la sostenibilidad de esta trayectoria tecnológica”, ha sentenciado Goldberg.

