En enero de 2026, Nvidia invierte USD 2.000 millones en CoreWeave para ampliar infraestructura AI y consolidar su posición
en el corazón del boom de la inteligencia artificial. La firma estadounidense, referente mundial en procesadores gráficos (GPU),
confirmó una inyección de capital multimillonaria en CoreWeave, una compañía de computación en la nube especializada en
workloads de IA, con el objetivo de expandir centros de datos y aumentar la capacidad de cálculo disponible en Estados Unidos.
La operación se inscribe en una carrera global por contar con la infraestructura AI necesaria para entrenar y ejecutar modelos
cada vez más complejos, desde asistentes conversacionales hasta sistemas de análisis de datos empresariales. Tanto Nvidia como
CoreWeave apuntan a captar esa demanda creciente ofreciendo potencia de cómputo “llave en mano” para empresas, startups y
desarrolladores que construyen sobre inteligencia artificial.

Nvidia invierte USD 2.000 millones en CoreWeave para ampliar infraestructura AI: quiénes son y qué hay detrás
Nvidia es una de las tecnológicas más influyentes del mundo: comenzó como fabricante de tarjetas gráficas para videojuegos,
pero sus GPU se convirtieron en el estándar de facto para el entrenamiento de modelos de IA, al permitir procesar millones
de operaciones de forma paralela. Hoy sus chips son la base de buena parte de los centros de datos que alimentan a los grandes
modelos de lenguaje, visión por computadora y sistemas de recomendación.
CoreWeave, por su parte, es un proveedor de servicios de computación en la nube centrado en cargas de trabajo de
alto rendimiento e inteligencia artificial. No vende computadoras físicas al cliente final, sino que ofrece acceso remoto a
clusters de GPU y servidores desde sus propios centros de datos. Para una empresa media, eso significa no tener que construir
ni mantener infraestructura propia: alquila capacidad de procesamiento cuando la necesita, pagando por uso.
Cuando se afirma que Nvidia invierte USD 2.000 millones en CoreWeave para ampliar infraestructura AI, en la práctica se habla
de destinar capital a la expansión de centros de datos, la instalación de nuevo hardware (más GPU, redes de alta velocidad,
almacenamiento masivo) y la mejora de los sistemas que gestionan esa capacidad en la nube para clientes de todo el mundo.
Qué se entiende por “infraestructura AI” y qué implican los datos técnicos
La expresión infraestructura AI alude al conjunto de recursos físicos y lógicos que hacen posible la inteligencia artificial
a gran escala: centros de datos, servidores equipados con GPU, redes de fibra óptica, sistemas de refrigeración, software de
orquestación y plataformas de nube que gestionan el acceso de los clientes. Es el “suelo técnico” sobre el que se construyen
las aplicaciones que el público ve en la superficie.
En este contexto, los llamados datos técnicos no son un concepto abstracto, sino métricas operativas muy concretas: consumo
energético por rack, temperatura de operación, utilización de GPU y CPU, ancho de banda, tiempos de respuesta, volúmenes de
peticiones de modelos de IA, e incluso información agregada sobre qué tipos de modelos (visión, lenguaje, analytics) concentran
mayor demanda. Ese conjunto de indicadores permite ajustar la infraestructura, planificar nuevas inversiones y garantizar
niveles de servicio (SLA) a los clientes.
La apuesta de que Nvidia invierte USD 2.000 millones en CoreWeave para ampliar infraestructura AI se apoya precisamente en esa
lectura técnica: la demanda por cómputo para IA no solo crece, sino que se vuelve más exigente en términos de disponibilidad,
latencia y eficiencia energética, obligando a proveedores y fabricantes a escalar rápido y de forma coordinada.
Claves de la inversión: expansión de centros de datos y más GPU en la nube
El grueso de la inversión se destinará a ampliar y modernizar los centros de datos de CoreWeave en territorio estadounidense.
Esto implica levantar nuevas instalaciones, extender las ya existentes y equiparlas con la última generación de GPU de Nvidia,
así como con infraestructuras de red y almacenamiento de alto rendimiento orientadas específicamente a IA.
En términos operativos, la alianza Nvidia–CoreWeave busca:
- Aumentar la capacidad disponible para entrenamiento y despliegue de modelos de IA, reduciendo tiempos de espera para clientes.
- Ofrecer clusters de GPU más grandes y especializados, capaces de soportar modelos de gran tamaño y proyectos corporativos de alto impacto.
- Optimizar el uso de recursos mediante software que asigna dinámicamente GPU y servidores según la carga de trabajo.
Para el mercado, que Nvidia invierte USD 2.000 millones en CoreWeave para ampliar infraestructura AI es también una señal clara
de que la oferta de cómputo para IA seguirá concentrándose en grandes actores con capacidad financiera y tecnológica, lo que
refuerza la importancia estratégica de este segmento dentro de la industria digital.
Por qué la capacidad de cómputo se ha vuelto un activo geopolítico
La computación para IA ya no es solo un asunto de negocio: es un activo geopolítico. Países y bloques económicos
compiten por asegurar acceso a hardware avanzado, talento y centros de datos que les permitan desarrollar sus propios modelos
y no depender exclusivamente de terceros. En ese tablero, decisiones como que Nvidia invierte USD 2.000 millones en CoreWeave
para ampliar infraestructura AI consolidan a Estados Unidos como uno de los epicentros mundiales del cómputo para IA.
Esta concentración plantea oportunidades —por la disponibilidad de servicios— pero también interrogantes sobre dependencia
tecnológica para regiones como América Latina, donde el acceso se realiza casi siempre a través de nubes ubicadas en
Norteamérica o Europa, con los consiguientes debates sobre soberanía de datos y resiliencia.
Impacto sectorial: de la salud a las finanzas
La inversión se produce en un contexto en el que la IA atraviesa sectores como salud, finanzas, educación, logística y
manufactura. Cada nuevo modelo de diagnóstico médico asistido por IA, cada sistema antifraude bancario o cada plataforma
educativa adaptativa aumenta la presión sobre la infraestructura en la nube.
Nvidia, con su catálogo de GPU y plataformas como CUDA, y CoreWeave, con su oferta de nube especializada, apuntan a convertirse
en proveedores fundamentales de ese “backend” que no ve el usuario, pero que determina si un modelo se entrena en semanas o
en días, o si una aplicación responde en segundos o en milisegundos.
En este sentido, que Nvidia invierte USD 2.000 millones en CoreWeave para ampliar infraestructura AI puede traducirse en:
- Modelos más grandes y precisos, entrenados sobre mayores volúmenes de datos.
- Servicios de IA más estables, incluso en picos de demanda global.
- Barreras de entrada más bajas para startups y empresas medianas que recurren a la nube en lugar de montar infraestructura propia.
Relevancia para América Latina y Costa Rica
Aunque los nuevos centros de datos se desarrollen en Estados Unidos, el ecosistema latinoamericano se ve impactado de forma
indirecta. Empresas de la región —incluidas firmas costarricenses— ya consumen servicios de IA alojados en nubes extranjeras.
Si la infraestructura crece y se diversifica, es razonable esperar mayor oferta, más opciones de precio y mejor desempeño.
El reto para países como Costa Rica pasa por aprovechar esa capacidad para impulsar proyectos locales —desde analítica de
datos en pymes hasta soluciones de gobierno digital—, al tiempo que se discuten marcos regulatorios que protejan datos y
fomenten el desarrollo de talento en IA dentro de la región.
Perspectivas: un paso más en la carrera por la IA
Aunque las compañías no han detallado todos los términos comerciales, el mensaje de fondo es claro: la demanda de cómputo para
IA seguirá creciendo y quienes controlen la infraestructura tendrán un rol central en la economía digital. Que Nvidia invierte
USD 2.000 millones en CoreWeave para ampliar infraestructura AI es, en la práctica, una apuesta a que la IA dejará de ser
un nicho para convertirse en un componente transversal de casi cualquier industria.
A corto plazo, la alianza podría acelerar la disponibilidad de nuevos servicios y abaratar ciertos costes de acceso. A mediano
y largo plazo, consolida la idea de que la infraestructura AI se ha vuelto una pieza estratégica del mapa tecnológico global,
con implicaciones económicas, políticas y sociales que van mucho más allá de una sola transacción de inversión.
Para seguir el pulso de las grandes inversiones tecnológicas y su impacto en la economía real, continúe informándose en
STAY TV.

