El auge de la inteligencia artificial está impulsando la construcción masiva de centros de datos en todo el mundo. Cada nuevo modelo, cada nuevo servicio y cada promesa de automatización requiere miles de chips especializados. Pero detrás de este crecimiento acelerado empieza a aparecer un problema del que se habla poco: los chips de IA tienen una vida útil sorprendentemente corta.
En el mundo del hardware tradicional, se asumía que un componente crítico debía durar al menos seis años para amortizarse correctamente. Ese era el horizonte habitual antes del boom de la IA. Hoy, esa regla ha saltado por los aires.
Los chips de inteligencia artificial —especialmente las GPU de alto rendimiento— se quedan casi obsoletos en menos de cuatro años, y en muchos casos incluso antes. El motivo es sencillo: la velocidad de innovación es brutal. Cada nueva generación multiplica la potencia de cálculo por siete o más veces, dejando a la anterior en un segundo plano.
Un chip que hoy es puntero, dentro de tres años solo sirve para tareas secundarias. Y es cuando el mercado empuja a la depreciación
Fabricantes como Nvidia lanzan nuevos modelos a un ritmo cada vez más rápido. Desde el punto de vista tecnológico es impresionante, pero desde el financiero es un problema. Los chips “antiguos” dejan de ser deseados casi de inmediato y su valor se desploma.
Las estimaciones actuales indican que estos procesadores pueden perder hasta el 90 % de su valor en solo tres o cuatro años. Eso cambia por completo las cuentas de resultados de quienes operan grandes centros de datos.
Donde antes había una amortización estable y previsible, ahora hay una depreciación acelerada y difícil de gestionar.
A esta obsolescencia económica se suma otro factor: el desgaste físico. Una mayor potencia de cálculo, implica más calor y más fallos.
Los chips de IA trabajan al límite, realizando cálculos extremadamente intensivos durante largos periodos de tiempo. Esto genera más calor, más estrés térmico y una mayor tasa de fallos.

Un dato revelador lo aportó recientemente Meta: los procesadores utilizados para entrenar su modelo Llama presentaban una tasa de fallo anual cercana al 9 %. Es una cifra alta para componentes que cuestan decenas de miles de euros por unidad.
Si los fallos aumentan y la vida útil real se acerca más a tres años que a seis, el impacto en los costes operativos es muy grande y tiene una consecuencia clara: los centros de datos de IA son más caros de operar de lo que se pensaba.
No solo por el consumo energético, sino por la rápida depreciación del hardware y el aumento del mantenimiento y las sustituciones.
Si la rentabilidad disminuye, alguien tendrá que asumir el coste. Puede ser el proveedor del servicio, los clientes finales o los inversores que hoy están financiando esta expansión sin precedentes.
Hace apenas unos años, estos factores no se consideraban críticos. Hoy empiezan a aparecer en los análisis más realistas del sector.
La sensación general es que el sector de la IA vive en el corto plazo. Se prioriza crecer rápido, escalar a toda costa y capturar mercado, muchas veces con dinero externo. Pero la economía del hardware es implacable, y tarde o temprano los números mandan.
Eso no significa que la IA sea una burbuja a punto de estallar. Pero sí sugiere que no todo es tan rentable como parece, especialmente cuando se analizan los costes a largo plazo.
La pregunta ya está sobre la mesa: ¿seguirá siendo sostenible este ritmo de inversión cuando el hardware envejece tan deprisa?
El tiempo, como siempre, dará la respuesta.