CoreWeave, un proveedor especializado de infraestructura de inteligencia artificial, ha anunciado una ampliación significativa de su asociación con Nvidia que incluye una inversión de 2.000 millones de dólares por parte del gigante tecnológico. Este acuerdo estratégico permitirá a CoreWeave acelerar el desarrollo de más de 5 gigavatios de centros de datos de inteligencia artificial antes de 2030, según informaron ambas empresas el lunes 26 de enero.
La inversión de Nvidia se realizó mediante la compra de acciones de CoreWeave, consolidando una colaboración que ambas compañías describen como fundamental para el futuro de la infraestructura de IA. La magnitud del proyecto es considerable: según datos de la Administración de Información Energética citados por CNBC, 5 gigavatios equivalen al consumo eléctrico anual de aproximadamente 4 millones de hogares estadounidenses.
Detalles de la inversión en infraestructura de IA
Michael Intrator, cofundador, presidente y director ejecutivo de CoreWeave, afirmó en un comunicado de prensa que la colaboración se ha guiado por la convicción de que la inteligencia artificial tiene éxito cuando el software, la infraestructura y las operaciones se diseñan conjuntamente. Según Intrator, Nvidia representa la plataforma de computación más solicitada en cada fase de la IA, desde el pre-entrenamiento hasta el post-entrenamiento.
Sin embargo, el CEO de Nvidia, Jensen Huang, reconoció que la inversión de 2.000 millones de dólares representa solo una pequeña fracción del financiamiento total necesario. En declaraciones a CNBC, Huang señaló que la cantidad de fondos que aún debe recaudarse para respaldar los 5 gigavatios de capacidad es realmente significativa.
Cuestionamientos sobre las necesidades de centros de datos
Mientras tanto, un creciente número de investigaciones está desafiando las suposiciones de la industria sobre las necesidades de centros de datos para inteligencia artificial. Estos estudios argumentan que los requisitos de infraestructura han sido moldeados más por decisiones arquitectónicas tempranas que por limitaciones técnicas inevitables.
Un estudio reciente de EPFL, una universidad tecnológica suiza, sostiene que aunque el entrenamiento de modelos avanzados sigue siendo computacionalmente intensivo, muchos sistemas operativos de IA pueden implementarse sin instalaciones centralizadas de hiperescala. En cambio, estos sistemas pueden distribuir cargas de trabajo a través de máquinas existentes, servidores regionales o entornos edge, reduciendo la dependencia de grandes clusters centralizados.
Modelos de lenguaje pequeños versus grandes
La investigación también ilustra una creciente discrepancia entre la infraestructura de inteligencia artificial y los casos de uso empresariales del mundo real. Estos sistemas a menudo dependen de modelos más pequeños, inferencia repetida y datos localizados en lugar de acceso continuo a modelos masivos centralizados.
Curiosamente, la propia Nvidia ha argumentado que los modelos de lenguaje pequeños podrían llevar a cabo entre el 70% y el 80% de las tareas empresariales, dejando el razonamiento más complejo en manos de sistemas a gran escala. Esta estructura de dos niveles, con modelos pequeños para volumen y grandes para complejidad, está emergiendo como la forma más rentable de operacionalizar la inteligencia artificial.
Implicaciones para el sector energético
El desarrollo planificado por CoreWeave plantea importantes consideraciones sobre el consumo energético y la sostenibilidad. La escala de 5 gigavatios representa una demanda eléctrica sustancial que requerirá coordinación con proveedores de energía y posiblemente nuevas fuentes de generación eléctrica.
Además, el contraste entre la construcción de megacentros de datos centralizados y las alternativas de computación distribuida sugiere que la industria aún está definiendo la arquitectura óptima para la infraestructura de IA a largo plazo.
El plazo de 2030 para la finalización de los centros de datos de CoreWeave proporcionará un caso de estudio significativo sobre si el modelo de infraestructura centralizada a gran escala prevalecerá o si enfoques más distribuidos ganarán tracción. La capacidad de CoreWeave para asegurar el financiamiento restante necesario y navegar los desafíos regulatorios y energéticos determinará el éxito del proyecto. La evolución de las arquitecturas de IA y la adopción empresarial de modelos distribuidos también influirán en la demanda futura de instalaciones de hiperescala.

