En general las cosas no suceden por casualidad, ni por suerte, sino que detrás casi siempre hay razones de mayor o menor peso que sustentan lo que sucede con las personas, con las empresas, etc … Y si vemos a una empresa como Nvidia que en pocos años pasa a ser la de mayor valor bursátil del mundo es por algo.
Creo que Nvidia tuvo la relativa fortuna de iniciarse en el año 1993 con tarjetas procesadoras de gráficos ( GPU ) para juegos, que era un nicho muy activo en el mundo de los videojuegos, y que los ordenadores de propósito general no eran capaces de manejar con la necesaria rapidez de computación.
Eso fue evolucionando y ya en el año 2.007 la revista Forbes la declaró Empresa del Año ( Company of the Year ) debido a su positivo desarrollo en los años anteriores.
Por el camino ha ido comprando otras empresas para crecer más rápido, pero en mi opinión una de sus mayores fortalezas es haber desarrollado CUDA (Compute Unified Device Architecture), que no es un chip ni un hardware. Es una plataforma de software y un modelo de programación creado por NVIDIA en 2006.
Su función es simple de entender: Permite usar la GPU como si fuera un superordenador paralelo, y no solo para gráficos. Esta es la gran diferencia
Antes de CUDA las GPU servían casi exclusivamente para dibujar gráficos, y programarlas para otros cálculos era un infierno técnico.
Con CUDA un programador escribe código (C, C++, Python, etc.), y luego CUDA lo traduce para que miles de núcleos de la GPU trabajen a la vez, y cada núcleo hace una pequeña parte del trabajo. El cambio es total.
Pongamos un ejemplo sencillo:
Un ordenador con una CPU tiene 8–64 núcleos muy potentes
Una GPU de NVIDIA tiene miles de núcleos sencillos trabajando en paralelo
Esto es ideal para IA, porque entrenar modelos supone millones de operaciones matemáticas repetitivas. Justo lo que mejor hace una GPU

Por eso CUDA es tan importante para la IA. La clave no es solo el hardware, sino el conjunto completo:
CUDA incluye:
. Lenguaje de programación
. Compiladores
. Librerías matemáticas optimizadas
. Herramientas de depuración
. Soporte directo para frameworks de IA
Además NVIDIA ha creado librerías críticas que son el estándar de facto del mercado:
. cuDNN → redes neuronales
. cuBLAS → álgebra lineal
. TensorRT → inferencia rápida
. NCCL → comunicación entre GPUs
Frameworks como:
. PyTorch
. TensorFlow
. JAX
Están escritos pensando primero en CUDA, y esto significa que:
. Todo funciona mejor y más rápido en GPUs de NVIDIA
. Las nuevas funciones llegan antes
. Los errores se corrigen antes
Por lo tanto CUDA crea dependencia (y ese es el verdadero poder), y creo que este es el punto clave que poca gente dice: CUDA ha creado un “lock-in tecnológico” brutal, y salirse de ahí es muy difícil. Pido disculpas por el anglicismo
Qué significa esto:
. Millones de líneas de código están escritas para CUDA
. Miles de investigadores e ingenieros lo dominan
. Cambiar de plataforma no es trivial ni barato
Una empresa que ha invertido años en CUDA:
. No puede cambiar de GPU “así sin más”
. Tendría que reescribir código
. Volver a validar resultados
. Perder rendimiento y tiempo
Cuando ha aparecido la IA, Nvidia estaba ahí preparada para ser su mejor plataforma de desarrollo y con capacidad para crecer y abastecer al mercado.
Y creo que esta es su fortaleza: Nvidia no vende chips, vende un ecosistema completo. Es la empresa líder mundial ofreciendo al mercado productos y mejoras continuas con gran rapidez.
Por eso es la empresa más valorada del mundo.