Los ‘superracks’ de inteligencia artificial: la nueva columna vertebral de los centros de datos del futuro

Diseñados para modelos con billones de parámetros, estos gigantes tecnológicos concentran una potencia sin precedentes en una sola estructura refrigerada por líquido

Los centros de datos están cambiando de forma. Literalmente. A medida que la inteligencia artificial (IA) demanda más potencia de cálculo y menor latencia, las empresas tecnológicas están apostando por una nueva clase de infraestructura: los llamados superracks de IA, sistemas integrados que concentran capacidades de supercomputación en un único bastidor del tamaño de una nevera industrial.

Estas estructuras, que ya están siendo desplegadas por empresas como CoreWeave, Dell Technologies, NVIDIA o Microsoft, no son meros racks de servidores. Son plataformas completas que integran decenas de GPUs ultraespecializadas, CPUs de última generación, redes InfiniBand de alta velocidad y memoria de gran ancho de banda (HBM), todo ello gestionado y optimizado con software específico para IA. Y lo hacen bajo una arquitectura refrigerada por líquido, una necesidad ante el calor extremo que generan estos equipos trabajando a plena carga.

¿Qué hace tan especiales a estos superracks?

Un solo superrack de IA puede integrar, por ejemplo, 72 GPUs NVIDIA Blackwell Ultra, más de 20 TB de memoria HBM3e y una red NVLink con más de 130 TB/s de ancho de banda interno. Esto se traduce en más de un exaflop de rendimiento teórico por rack, es decir, la capacidad de realizar más de un trillón de operaciones de coma flotante por segundo.

“Estamos hablando de que, en menos de dos metros de altura, puedes tener más potencia que los superordenadores nacionales de hace una década”, explica David Carrero, experto en infraestructura cloud y cofundador de Stackscale (Grupo Aire). “Y además son escalables, eficientes y están listos para cargas de trabajo complejas como la inferencia de modelos de lenguaje o la simulación de sistemas físicos”.

IA generativa, inferencia y el auge del razonamiento autónomo

La revolución no es solo de hardware. Estos superracks están pensados para responder a la nueva generación de modelos de IA, cada vez más grandes, multimodales y capaces de realizar razonamientos complejos en tiempo real.

Gracias a su arquitectura avanzada y su interconexión ultrarrápida, los superracks permiten ejecutar tareas como:

  • Entrenamiento y fine-tuning de modelos LLM con miles de millones de parámetros.
  • Inferencia de IA generativa con baja latencia para aplicaciones en salud, finanzas, industria o creación de contenido.
  • Simulación de agentes autónomos (agentic AI) en entornos controlados o productivos.
  • Procesamiento paralelo a gran escala, como búsqueda vectorial o clasificación de imágenes médicas.

“El salto no es solo cuantitativo, es cualitativo”, afirma Arthur Lewis, presidente del grupo de Soluciones de Infraestructura de Dell. “Podemos pasar de ejecutar modelos en minutos a tener respuestas en milisegundos. Y eso lo cambia todo, desde el diagnóstico clínico hasta el vehículo autónomo o la industria creativa”.

Refrigeración líquida, redes ópticas y eficiencia energética

Para alimentar estos sistemas, los centros de datos deben evolucionar. Los superracks requieren:

  • Sistemas de refrigeración líquida directa (DLC), que extraen el calor de chips y módulos de memoria con circuitos de agua o glicol.
  • Distribución eléctrica de alta densidad, con consumos que pueden superar los 50 kW por rack.
  • Redes InfiniBand o Ethernet de 800 Gb/s, indispensables para mantener la coherencia de datos entre GPUs.
  • Optimización térmica y logística, ya que el peso y volumen de estos racks también implica cambios en la arquitectura física de los CPD.

La eficiencia también importa: según datos de NVIDIA, los nuevos sistemas GB300 NVL72 ofrecen cinco veces más rendimiento por vatio que su predecesor, lo que reduce el impacto energético en entornos con gran demanda computacional.

La nube de IA se construye así

Proveedores como CoreWeave, Lambda, Oracle Cloud o Microsoft Azure están construyendo clústeres enteros basados en estos superracks, orientados a clientes que necesitan entrenar y desplegar IA a gran escala. Desde universidades y laboratorios hasta startups de biotecnología o empresas del sector financiero, la demanda de potencia personalizada para IA no deja de crecer.

CoreWeave, por ejemplo, fue el primero en desplegar la arquitectura GB300 en producción en julio de 2025, en colaboración con Dell. Su objetivo: ofrecer a desarrolladores, investigadores y empresas una plataforma cloud que permita crear modelos en días y ejecutarlos en segundos.

“Cada uno de estos racks es una pequeña fábrica de inteligencia artificial”, dijo Peter Salanki, director de producto de CoreWeave. “Están pensados para escalar sin perder rendimiento, con visibilidad completa a nivel de infraestructura y soporte para cargas que no existían hace tres años”.

¿Hacia dónde va esta tecnología?

Los superracks no son una moda, sino una pieza fundamental en la transición hacia una IA industrializada. Con cada nuevo modelo más complejo, cada aplicación más exigente y cada caso de uso más ambicioso, la necesidad de plataformas como estas no hará más que crecer.

En palabras de David Carrero, “estamos viendo el equivalente moderno de las centrales eléctricas del siglo XX, pero para alimentar cerebros digitales”.

Lo que ayer requería un centro de supercomputación hoy cabe en un rack. Y en esa vertical de acero, refrigeración y silicio, late ya el futuro de la inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×