OpenAI y AWS firman un pacto de 38.000 millones: la guerra de la IA ya no va de modelos, va de infraestructura

El 3 de noviembre de 2025, OpenAI y Amazon Web Services sellaron un acuerdo a siete años valorado en 38.000 millones de dólares que coloca a la infraestructura —no al algoritmo— en el centro de la competencia por la Inteligencia Artificial. El anuncio, discreto en su forma y contundente en su fondo, redibuja el mapa de poder en la nube: OpenAI diversifica más allá de Microsoft y AWS se afianza como anfitrión de los grandes rivales del sector.

No es un contrato cualquiera. Es una apuesta en firme por cómputo de frontera: cientos de miles de GPU NVIDIA de última generación (GB200 y GB300) orquestadas en Amazon EC2 UltraServers, más la capacidad para escalar a decenas de millones de CPU en cargas de IA agéntica. Sobre ese “hierro” correrán tres líneas maestras: la inferencia en tiempo real de productos como ChatGPT, el entrenamiento de la siguiente generación de modelos y el despliegue masivo de agentes capaces de planificar y ejecutar tareas con supervisión humana.

“Escalar la IA de frontera exige cómputo masivo y fiable”, resumió Sam Altman, cofundador y consejero delegado de OpenAI. “Nuestra alianza con AWS refuerza el ecosistema de cómputo que impulsará la próxima era y acercará capacidades avanzadas a todo el mundo”.

“La infraestructura de AWS servirá como columna vertebral de las ambiciones de OpenAI”, añadió Matt Garman, CEO de AWS. “La inmediatez y amplitud del cómputo disponible explican por qué AWS está en una posición única para sostener sus cargas”.

Lo que hay detrás de la cifra: contratos, calendario y arquitectura

El contrato fija un horizonte de siete años e implantación inmediata, con toda la capacidad objetivo desplegada antes de que termine 2026 y opciones de expansión hacia 2027 y más allá. La arquitectura que AWS prepara para OpenAI persigue latencias bajas y rendimiento sostenido: clústeres co-localizados de GPU GB200/GB300 en UltraServers, redes internas de alta capacidad y topologías pensadas para mezclar entrenamiento e inferencia sin penalizaciones severas cuando la plataforma pivota de una tarea a otra.

La letra pequeña interesa incluso a quien no va a comprar una sola GPU: el acuerdo incluye la posibilidad de escalar CPU a gran escala para cargas lógicas y secuenciales. Es una pista clara de por dónde quiere ir OpenAI: si 2023 fue el año del modelo, 2024 el de la “oficina aumentada”, 2025–2026 apunta a IA agéntica —sistemas que encadenan herramientas, estados y decisiones—, y eso consume CPU además de GPU.

OpenAI rompe la exclusividad de facto con Microsoft

El movimiento tiene un ángulo estratégico igual de relevante: OpenAI deja de depender en exclusiva de Azure. La compañía adopta una estrategia multicloud explícita y añade AWS como segundo proveedor de cómputo de referencia. Según la información facilitada en el sector, para ganar ese margen de libertad OpenAI habría consolidado un nuevo contrato de 250.000 millones de dólares con Microsoft a la vez que abría la puerta a otros proveedores (como AWS u Oracle) en contratos de largo recorrido. El mensaje es inequívoco: el proveedor de modelos quiere redundancia, precio y escala al ritmo que exige su hoja de ruta.

Para Microsoft, el gesto no equivale a perder a su cliente bandera —sigue habiendo un compromiso de enorme escala—, pero sí a aceptar que el mercado entra en una fase profesional en la que los actores de IA diversifican por riesgo operativo, cobertura geográfica y negociación de costes.

La “economía circular” del cómputo: cómo se paga todo esto

Las matemáticas son desafiantes: 38.000 millones con AWS son solo un trozo de un plan de infraestructura que, según cifras manejadas por analistas y comunicados, supera 1,4 billones de dólares (escala anglosajona) a varios años vista. A la vez, los ingresos anuales reportados de OpenAI rondan los 13.000 millones. ¿Cómo cuadra?

La fórmula recuerda a la de la gran nube de la última década: compromisos de gasto de largo plazo que permiten al proveedor (AWS, en este caso) justificar y financiar el capex necesario —centros de datos, energía, redes, equipos— mientras el cliente (OpenAI) obtiene precio, disponibilidad y prioridad. Es, en términos crudos, una economía circular del cómputo: ingresos garantizados por un lado, inversión anticipada por el otro.

AWS sale del “segundo plano” en IA… y hospeda a los rivales

Durante meses, la narrativa de mercado situó a AWS un paso por detrás de Microsoft y Google en la “nube de la IA”. Con este contrato —y con Anthropic también como huésped—, AWS pasa a ser la “Suiza” del cómputo de frontera: la plataforma donde compiten varios de los grandes proveedores de modelos, con o sin preferencia de casa. La reacción bursátil no se hizo esperar: el anuncio impulsó al máximo histórico las acciones de Amazon, un reflejo del mensaje que entiende Wall Street: en la nueva era, mandan los que pueden entregar megavatios y pétalos de silicio al ritmo de las ideas.

Para NVIDIA, la noticia refuerza su dominio. Que OpenAI exija explícitamente GB200 y GB300 en lugar de alternativas internas de AWS subraya que, en el cómputo más ambicioso, la compañía de Jensen Huang sigue siendo piedra angular. El oligopolio IA+nube —chips, hiperescaladores, laboratorios de modelos— sale fortalecido y empuja a los reguladores de EE. UU. y la Unión Europea a intensificar el escrutinio sobre competencia, dependencias y acceso.

Qué cambia para clientes y desarrolladores

Aunque el contrato sea entre gigantes, su onda corta alcanzará al resto del ecosistema:

  • Capacidad: más oferta de cómputo “lista” para IA de frontera en AWS, con clústeres interconectados y latencia optimizada para entrenamiento, inferencia y agentes.
  • Productos: la maquinaria de AWS acelera su narrativa de servicios sobre chips de última generación; a menor escala, aterrizarán instancias y servicios gestionados que heredan ese músculo.
  • Modelos abiertos: la propia AWS recuerda que modelos “open weight” de OpenAI ya figuran en Amazon Bedrock, con miles de clientes probándolos para flujos agénticos, código, análisis científico o razonamiento matemático.
  • Agentes: el acuerdo menciona AgentCore dentro de Bedrock como plataforma para construir, desplegar y operar agentes con control y seguridad. Aunque OpenAI tenga su propia visión, el punto de encuentro con la nube de AWS facilitará entornos mixtos (modelos de OpenAI + plataforma de AWS) en empresas que ya estandarizan en Amazon.

La era de los agentes: el cerebro y el sistema nervioso

Más allá del titular, esta alianza delata una apuesta por los agentes. OpenAI no solo compra “cerebro” (GPU). Compra “sistema nervioso”: CPU a escala para planificación, coordinación y automatización de tareas secuenciales. El entusiasmo por los agentes no es una moda de laboratorio. Si el usuario exige resultados (reservar, aprobar, conciliar, preparar, ejecutar), los sistemas deben invocar herramientas, recordar estado y gestionar errores. En esa orquesta la GPU genera, pero la CPU organiza.

De ahí que el texto de AWS enfatice la capacidad de escalar a decenas de millones de CPU para “agentic workloads”. Es una pista sobre los requisitos sistémicos que vienen: menos grandes monolitos y más enjambres de procesos con memoria, permisos, colas y políticas.

Preguntas que deja abiertas (y que marcarán 2026)

Energía. Montar clústeres con centenares de miles de chips exige gigavatios; Estados Unidos y Europa se enfrentan a redes eléctricas tensionadas y permisos lentos. AWS presume de clústeres >500.000 chips; mantener ese ritmo implicará más acuerdos energéticos y mayor eficiencia por vatio.

Costes. El “precio por token” seguirá bajo presión. Si OpenAI corre en varias nubes, negocia mejor; si AWS invierte para cumplir, querrá retorno. El equilibrio de márgenes y crecimiento será una danza fina en 2026.

Acceso. Cuando unos pocos actores concentran chips, datacenters y modelos, el debate sobre acceso abierto y neutralidad de la infraestructura gana volumen. La Comisión Europea y la FTC ya estudian el oligopolio IA-nube.

Ecosistema. Para desarrolladores y empresas, la respuesta práctica pasa por arquitecturas portables, multiagente y multimodelo, con gobernanza en primer plano: quién pregunta, qué datos usa, qué devuelve, cómo se audita.

Una foto de época

El acuerdo OpenAI–AWS confirma algo que la industria llevaba meses rumiando: la ventaja competitiva de la próxima fase no se define solo por el “mejor modelo”, sino por la capacidad de entregar cómputo donde y cuando haga falta. En esa liga, ganan quienes combinan chips de vanguardia, energía, redes, operaciones y confianza del mercado.

OpenAI, que ya había dado el salto de laboratorio a producto, da ahora el salto de producto a plataforma con pie en dos nubes. AWS, que parecía ir a rebufo en la conversación de IA, avanza casilla grande: se convierte en la autopista por la que circulan algunos de los modelos más potentes del mundo. Y NVIDIA consolida su papel de proveedor sistémico: si hay IA de frontera, es con sus GPU en el corazón.

Queda por ver si esta alianza inaugura una etapa de abundancia de cómputo o, por el contrario, acelera la concentración del acceso. Lo que ya no admite duda es que la guerra de la IA ha cambiado de frente: la infraestructura manda.


Fuentes

  • Comunicado de AWS (03/11/2025) sobre la alianza multianual con OpenAI.
  • Información facilitada por las compañías y datos de mercado asociados a AWS, OpenAI y NVIDIA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×