La startup de Elon Musk impulsa su despliegue hiperescala construyendo centros de datos propios con turbinas de gas y superordenadores Colossus
La carrera global por la infraestructura de inteligencia artificial ha entrado en una nueva fase. La compañía xAI, liderada por Elon Musk, está en negociaciones para conseguir hasta 12.000 millones de dólares en financiación destinada a alquilar decenas de miles de GPUs de NVIDIA, según ha revelado The Wall Street Journal. La iniciativa no solo supone una de las mayores inversiones recientes en aceleradores, sino que marca un viraje estratégico hacia el modelo de infraestructura propia o «build-your-own-cloud».
A diferencia de competidores como OpenAI o Anthropic, que se apoyan en nubes públicas, xAI está construyendo centros de datos independientes alimentados por turbinas de gas metano y diseñados específicamente para albergar hardware de alto rendimiento como las NVIDIA H100. La clave: evitar cuellos de botella en disponibilidad de cómputo y ganar autonomía operativa.
200.000 GPUs en funcionamiento y escalando
El primer pilar de esta infraestructura ya está operativo: el superordenador Colossus, que en su versión actual integra 200.000 GPUs H100 en un despliegue dividido en dos fases: una primera de 100.000 unidades desplegada en 122 días, y una segunda de ampliación completada en apenas tres meses.
El consumo energético estimado supera los 150 megavatios (MW), lo que sitúa a Colossus entre los sistemas de mayor densidad energética del mundo. Musk ha optado por alimentar estas instalaciones mediante infraestructura energética privada, incluyendo turbinas de gas para garantizar continuidad de servicio y evitar dependencia de las redes eléctricas públicas.
Según Jensen Huang, CEO de NVIDIA, “solo alguien como Elon puede coordinar ingeniería, construcción y suministro a esta escala en tan poco tiempo”.
Una apuesta por la soberanía digital y energética
La estrategia de xAI no es sólo tecnológica, sino también geopolítica y energética. La compañía no dependerá de proveedores cloud externos y ha optado por construir sus propios centros de datos, sus propias fuentes de energía y gestionar directamente la cadena de suministro de chips.
Este enfoque recuerda al de gigantes como Amazon Web Services en sus primeras fases, pero llevado a un nuevo extremo. Con la integración vertical de computación, refrigeración y energía, Musk busca reducir la latencia operativa y maximizar el rendimiento de sus modelos fundacionales.
El reto: escalar suministro y distribución
Pero no todo depende del capital. El éxito de xAI también está condicionado por la capacidad de NVIDIA para entregar suficientes GPUs H100 y Blackwell, cuya demanda supera ampliamente la oferta. Además, Musk tendrá que afrontar los retos de refrigeración, suministro eléctrico y mantenimiento asociados a clústeres de ultra alta densidad como Colossus.
Por otro lado, las estimaciones sobre consumo energético han llamado la atención incluso del presidente Donald Trump, que en una reciente cumbre de IA en Washington declaró: “Van a necesitar más electricidad de la que ha consumido la humanidad en toda su historia”.
En este contexto, Musk anunció que cada empresa bajo su órbita tendrá permiso para construir sus propias centrales eléctricas, lo que podría anticipar una ola de proyectos híbridos entre data centers, microrredes y generación in situ.
xAI como catalizador del futuro hiperconectado
La estrategia de xAI representa una de las apuestas más ambiciosas por la computación autónoma a hiperescala, y podría marcar el inicio de una nueva era en el diseño de infraestructuras de inteligencia artificial: menos dependencia de hyperscalers tradicionales, más control vertical y mayor exigencia energética.
Si consigue ejecutar su plan, Musk no solo será un actor clave en el desarrollo de modelos de IA, sino también en el rediseño del ecosistema global de centros de datos.
Fuente: Noticias inteligencia artificial