El gasto eléctrico de la IA sorprende: como recargar miles de coches al jour

25 octubre 2025

¿Te has preguntado alguna vez cuánta energía hace falta para que la inteligencia artificial responda a tus dudas existenciales o te ayude a redactar ese correo que tanto te pesa? Spoiler: es como recargar miles de coches eléctricos al día. Cada vez que pulsamos “enviar” para consultar a la IA, ponemos en marcha un apetito energético que sorprende por su envergadura.

Un consumo que da vértigo

¿Recuerdas cuando buscabas algo en Google y no te preocupaba cuánta energía se gastaba? Una consulta en el buscador apenas consume 0,2 vatios hora (Wh). Ahora bien, si le preguntas lo mismo a ChatGPT-3, la cosa sube a unos 3 Wh. Pero si eres de los primeros en probar la última joya de OpenAI, ChatGPT-5, prepárate: la misma pregunta demanda entre 18 y 20 Wh. Si la respuesta es tan larga como para rellenar 1.000 palabras (que a veces hace falta…), puede llegar hasta los 40 Wh. ¡Y eso no es nada si le pides que te haga un vídeo!

Estas cifras, recopiladas en el informe «¿Cuánta hambre tiene la IA? Análisis comparativo del consumo de energía, agua y huella de carbono», realizado por investigadores de las universidades de Rhode Island (Estados Unidos) y Túnez, ponen de manifiesto la verdadera magnitud de esta revolución tecnológica.

IA: un comilón digital respaldado por centrales nucleares

La IA generativa, como ChatGPT, no se contenta con la electricidad de una linterna. Cada día, se procesan nada menos que 2.500 millones de consultas en ChatGPT, lo que equivale al consumo energético diario de 1,5 millones de hogares estadounidenses—que, ojo, ya consumen el doble de energía que una casa francesa media. Así que la próxima vez que le pidas a ChatGPT que te escriba un poema, piensa que hay servidores sudando la gota gorda para complacerte.

ChatGPT ya se ha convertido en el quinto sitio web más visitado del planeta, justo detrás de Instagram. Pero aunque OpenAI no publica datos oficiales sobre el funcionamiento de sus modelos, los investigadores insisten en que estos números, aunque estimaciones, reflejan un problema real.

Transparencia bajo cero y servidores a remojo

La escasez de información fiable por parte de OpenAI (y la mayoría de gigantes tecnológicos) es señalada como un problema importante. Sin embargo, la francesa Mistral, utilizando la misma infraestructura de Microsoft que ChatGPT, sí ha publicado la huella ambiental de su IA y su método de cálculo. De sus datos se deduce que:

  • El 85,5% del consumo eléctrico y
  • El 91% del consumo de agua

se concentran en el entrenamiento y la inferencia, es decir, en el proceso de generar respuestas cada día.

Además, la potencia requerida aumenta casi proporcionalmente al tamaño del modelo, es decir, al número de parámetros que lo componen. Cuanto más grande es el modelo (piensa en los procesadores Nvidia reluciendo bajo el capó), más recursos y materiales de gama alta se necesitan.

Según Sam Altman, jefe de OpenAI, gastar más dinero asegura mejoras continuas y predecibles en el rendimiento de la IA. Eso sí, a costa de llenar los servidores a rebosar de cables, chips y—no podía faltar—consumo eléctrico.

¿Y el agua? Un chapuzón diario para la IA

¿Quién iba a pensar que consultar la IA gastaba agua? Según la herramienta comparativa del investigador Nidhal Jegham (Universidad de Rhode Island), ChatGPT-5 tampoco se lleva el premio ecológico en este apartado. Una consulta de texto de tamaño medio consume entre 20 y 50 ml de agua. Así, cada día, hasta 62,5 millones de litros se utilizan solo para enfriar los servidores que procesan nuestras preguntas y respuestas.

Durante años, los centros de datos eran criticados por su consumo energético y el abuso del aire acondicionado. Ahora, el enfriamiento por agua es la norma, aunque los datos concretos de consumo siguen brillando… por su ausencia. Investigadores han pedido en medios como The Guardian transparencia total por parte de OpenAI y otras empresas para que el impacto ambiental de modelos como GPT-5 no siga siendo un misterio.

Y la cosa sigue escalando: Meta y Microsoft trabajan en nuevas centrales nucleares para suplir esta creciente demanda, mientras OpenAI y Donald Trump han anunciado inversiones de 500.000 millones de dólares para construir hasta diez centros de datos adicionales—más que el presupuesto del programa Apollo para ir a la Luna. Las proyecciones del Departamento de Energía estadounidense sugieren que para 2028, la IA podría llegar a consumir tanta electricidad anual como el 22% de los hogares de Estados Unidos.

Consejo digital: la amabilidad sale cara
¿Sabías que hasta la cortesía virtual tiene precio? En abril, Sam Altman pidió a los usuarios que dejaran de saludar y dar las gracias a ChatGPT, porque cada saludo inútil es energía malgastada y dinero perdido. Así, la última versión fue diseñada para ser más fría y evitar charlas ligeras. Eso sí, tras la protesta de los usuarios nostálgicos, Altman ha prometido que ChatGPT-5 será “más cálido y amigable”—aunque con toques muy sutiles.

Al final, la gran pregunta es la de siempre: ¿vale la pena todo este derroche de recursos por una respuesta instantánea? Si no queremos que nuestra conciencia ecológica entre en cortocircuito, quizás sea hora de preguntar menos… ¡y pensar más!

Artículos similares

Valora este post

Leave a Comment

Share to...