por la enorme demanda de inteligencia artificial

La creciente demanda de inteligencia artificial (IA) generativa, como ChatGPT, ha puesto en evidencia su inmensa necesidad de energía, utilizando hasta 33 veces más que los algoritmos tradicionales. Investigadores y expertos en ética de la IA, como Sasha Luccioni de Hugging Face, alertan sobre el considerable impacto ambiental de estos sistemas debido a su consumo energético y emisiones de carbono. Empresas líderes en tecnología, incluyendo Meta, OpenAI, y Google, al entrenar modelos de lenguaje avanzados, operan cientos de miles de unidades de procesamiento gráfico y TPUs, lo que intensifica el uso de electricidad especialmente con modelos que crecen en complejidad.

Además de la energía requerida para el entrenamiento, la práctica constante de consultas a la IA por parte de los usuarios significa que los centros de datos globalmente continúan usando grandes cantidades de electricidad. Se prevé que el consumo de estos centros se incremente considerablemente, doblando su demanda para 2026, lo que lleva a preocupaciones acerca de la capacidad de las redes eléctricas para sostener este crecimiento. En el Reino Unido y Estados Unidos, ya se vislumbra una presión aumentada sobre las redes debido a esta tendencia.

Frente a este desafío, se propone optimizar el rendimiento mediante modelos más pequeños que operen directamente en dispositivos individuales y mejoras en el hardware. Sin embargo, la demanda por desarrollar IA más avanzada continúa, lo que probablemente exigirá soluciones energéticas más radicales. Por ello, empresas como Microsoft y figuras como Sam Altman de OpenAI, exploran opciones como los reactores nucleares modulares y la inversión en fusión nuclear, intentando encontrar un equilibrio entre el avance tecnológico y la sostenibilidad ambiental.