La inteligencia artificial ha pasado en muy pocos años de ser una curiosidad académica a convertirse en un componente central de nuestras vidas digitales. Está presente en buscadores, redes sociales, asistentes virtuales, herramientas creativas y, por supuesto, en modelos conversacionales como ChatGPT y otros. Pero a medida que crece su uso, también ha crecido una pregunta que cada vez preocupa más: ¿cuánta energía consume realmente la IA?

Cuando hablamos del consumo de energía de la inteligencia artificial, hay que distinguir entre dos fases: el entrenamiento y la inferencia. El entrenamiento de un modelo como GPT-4 o GPT-4o requiere enormes cantidades de potencia computacional. Son semanas (o meses) de trabajo intensivo sobre superordenadores con miles de GPUs funcionando a pleno rendimiento, procesando terabytes de datos. Esta fase tiene un coste energético muy alto.

Pero una vez entrenado el modelo, llega la inferencia: lo que hacemos los usuarios cuando interactuamos con una IA para que nos resuelva dudas, traduzca textos o genere código. ¿Es esto también intensivo en energía?

El CEO de OpenAI, Sam Altman, lo explicaba recientemente: una consulta típica a ChatGPT consume aproximadamente la misma energía que mantener encendida una bombilla durante unos pocos minutos. En términos individuales, no parece mucho. Pero cuando escalamos esa cifra a miles de millones de consultas diarias a nivel global, el impacto ya no es menor.

Afortunadamente, la historia de la tecnología es también la historia de la eficiencia creciente. Del mismo modo que la famosa Ley de Moore predijo durante décadas la duplicación de la capacidad de los chips cada 18-24 meses, en el mundo de la IA estamos viendo una reducción progresiva del coste energético por operación.

Los nuevos chips de IA, como los diseñados por Nvidia, Google o Microsoft, están optimizados para mejorar el rendimiento por vatio. Además, modelos más recientes como GPT-4o están diseñados desde su concepción para ser más eficientes, con arquitecturas que aprovechan mejor los recursos y permiten responder más rápido con menos consumo.

Una de las consecuencias más visibles de esta mejora en eficiencia es la bajada de precios en los servicios de IA. La “guerra de precios” entre proveedores como OpenAI, Anthropic, Google, Mistral o el recién llegado DeepSeek está reduciendo considerablemente el coste por millón de tokens (la unidad básica de texto procesado por estos modelos).

OpenAI y otros grandes jugadores han bajado sus precios a rangos entre 2 y 10 dólares por millón de tokens. Y DeepSeek, que ha irrumpido con fuerza en 2024, ha reducido esa horquilla hasta niveles tan bajos como 0,5 dólares por millón.

La presión competitiva y las mejoras técnicas hacen posible que la IA sea cada vez más accesible, con nuevas aplicaciones específicas para sectores como salud, educación, diseño, legal o incluso agricultura.

A pesar de su éxito, empresas como OpenAI siguen invirtiendo más de lo que ganan. En 2024, la compañía declaró pérdidas por unos 5.000 millones de dólares, aunque proyecta facturar este año unos 12.700 millones. Aun así, su valoración ha seguido en aumento, acercándose a los 300.000 millones de dólares. Esta aparente paradoja es típica de las tecnologías disruptivas: se gasta mucho en escalar y conquistar el mercado antes de alcanzar la rentabilidad sostenida.

Una de las grandes preocupaciones actuales no es solo cuánto consume la IA, sino qué puede hacer y quién la controla. La velocidad del desarrollo supera ampliamente la capacidad de reacción de los gobiernos. Mientras las grandes tecnológicas innovan y despliegan herramientas cada vez más potentes, las autoridades regulatorias están rezagadas, intentando ponerse al día con normas éticas, de privacidad, seguridad y transparencia.

Sí, la inteligencia artificial consume energía. Pero quizás no sea el “monstruo energético” que algunos imaginan, sobre todo si lo comparamos con industrias como el transporte, la agricultura intensiva o incluso el streaming de vídeo. La IA moderna es intensiva en computación, pero también está mejorando en eficiencia a una velocidad notable.

Estamos, probablemente, ante una de las tecnologías más transformadoras de nuestra era. Usarla con criterio, exigir transparencia en su funcionamiento, y avanzar hacia una regulación inteligente serán claves para que su desarrollo sea sostenible, accesible y ético.

Amador Palacios

Por Amador Palacios

Reflexiones de Amador Palacios sobre temas de Actualidad Social y Tecnológica; otras opiniones diferentes a la mía son bienvenidas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESES
Desde la terraza de Amador
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.