Durante meses, la conversación sobre Inteligencia Artificial se ha concentrado en una obsesión bastante previsible: qué modelo razona mejor, cuál programa más fino, cuál tiene más contexto o cuál gana el benchmark de la semana. Pero el gran cambio que empieza a perfilarse no está solo en el modelo. Está en dónde corre, quién controla el cómputo y qué dependencia arrastra cada llamada. La verdadera ruptura de esta etapa no es únicamente técnica. Es estratégica. Tiene que ver con la soberanía computacional.

Cuando un agente corre en local, la IA deja de ser solo un servicio al que se accede pagando por uso y pasa a convertirse en una capacidad propia. Eso cambia mucho más de lo que parece. Cambia la privacidad, porque el dato no tiene por qué salir a servidores ajenos. Cambia la latencia, porque desaparece parte del viaje constante a la nube. Y cambia la resiliencia, porque el sistema puede seguir funcionando aunque no haya conexión, aunque cambie una política comercial o aunque una API deje de estar disponible.

En el fondo, la discusión ya no va solo de inteligencia artificial. Va de control operativo.

La nube ha sido útil, pero también nos ha acostumbrado a depender

La primera gran ola de la IA generativa se apoyó casi por completo en la nube. Era lógico. Los modelos eran pesados, el hardware caro y la forma más rápida de llevarlos al mercado consistía en empaquetarlos como API. Eso permitió acelerar la adopción, experimentar con rapidez y democratizar el acceso a capacidades que hace pocos años parecían casi de ciencia ficción.

Pero esa comodidad también tuvo un coste. La empresa que usa un modelo remoto gana potencia, sí, pero acepta a cambio una dependencia constante: del precio, de la disponibilidad, de la política de uso, de la jurisdicción, de la trazabilidad del dato y de la hoja de ruta del proveedor. Esa dependencia no siempre es un problema. En muchos casos seguirá teniendo sentido. El error está en pensar que ese es el único camino posible.

Ya no lo es.

OpenAI, que durante años simbolizó mejor que nadie la IA servida desde la nube, abrió otra puerta en agosto de 2025 con gpt-oss-20b y gpt-oss-120b, dos modelos abiertos pensados para correr en infraestructura propia o incluso en dispositivos con recursos relativamente contenidos; la compañía explica que gpt-oss-20b puede ejecutarse en equipos edge con 16 GB de memoria.

Google empuja una lógica parecida con Gemma, una familia de modelos abiertos que, según su documentación oficial, está pensada para ejecutarse “donde el usuario lo necesite”, desde servidores a portátiles y hasta teléfonos móviles; Google AI también destaca que Gemma puede desplegarse en hardware propio, servicios alojados y dispositivos móviles mediante integraciones on-device.

Y el ecosistema abierto sigue ensanchándose con propuestas como Qwen, cuyo entorno incluye ya Qwen Code, un agente open source para terminal optimizado para los modelos de la familia Qwen, o con la familia Kimi, donde Moonshot AI mantiene modelos abiertos como Kimi K2 y Kimi K2.5, ambos orientados a razonamiento, código y capacidades agénticas.

Eso significa una cosa muy concreta: la IA local ya no es una rareza para entusiastas. Empieza a ser una opción seria.

El verdadero valor no es solo ahorrar dinero

A menudo se vende la IA local como una manera de reducir costes. Y claro que puede hacerlo. Pero si el análisis se queda ahí, se pierde lo más importante. El gran valor de correr modelos en local no es solo económico. Es político, técnico y empresarial.

Una organización que ejecuta su IA en su propio equipo, en su portátil o en su infraestructura privada puede decidir qué modelo usa, qué versión congela, qué ajusta, qué audita y qué datos no salen jamás de su perímetro. Puede construir microservicios internos de clasificación, redacción, búsqueda o asistencia sin entregar cada interacción a una plataforma externa. Puede desplegar agentes en sectores sensibles, en viajes, en contextos sin red o en entornos regulados donde la nube sigue generando dudas reales.

Ahí aparece una palabra que Europa debería tomarse mucho más en serio: soberanía.

Llevamos años hablando de soberanía digital casi siempre desde la regulación, pero la IA local añade una dimensión más concreta: la soberanía no solo se legisla, también se ejecuta. Cuando el modelo corre dentro de casa, la autonomía deja de ser un eslogan y empieza a parecer una capacidad operativa.

La segunda revolución de la IA será menos vistosa, pero más profunda

La primera revolución de la IA fue deslumbrante. Consistió en demostrar que los modelos podían escribir, resumir, programar, traducir y razonar con una calidad que muy pocos esperaban. La segunda será menos teatral, pero probablemente más importante. Va a consistir en que muchas de esas capacidades podrán integrarse sin depender por completo de las grandes plataformas.

Eso no significa que la nube vaya a desaparecer. No lo hará. Los modelos de frontera seguirán teniendo ventaja en muchas tareas y habrá durante años una convivencia entre servicios remotos y despliegues locales. Pero esa convivencia ya no es una rendición automática. Por primera vez en mucho tiempo, la industria empieza a tener una alternativa creíble.

Y esa alternativa no se construye sola. Se apoya en modelos abiertos, sí, pero también en herramientas como llama.cpp, cuyo proyecto se ha convertido en una de las piezas clave para ejecutar LLM con eficiencia y configuración mínima en una gran variedad de entornos. No es un detalle técnico menor: sin ese tipo de software, la promesa de la IA local seguiría siendo teórica.

La consecuencia de todo esto es bastante clara. La IA deja de ser solo un servicio al que se alquila acceso y empieza a parecerse más a una infraestructura que puede pertenecer al usuario, al equipo o a la empresa.

Eso cambia la relación de poder.

Porque cuando un agente corre local, no solo responde más rápido o protege mejor el dato. También reduce la capacidad de otros para interrumpir, encarecer o condicionar ese trabajo. Y en una época donde cada semana trae un nuevo cambio de precios, de límites o de condiciones, eso vale mucho más que una mejora marginal en el benchmark.

La libertad real de la IA no está en poder usar cualquier modelo. Está en poder seguir usándolo cuando no hay red, cuando no hay permiso o cuando no hay proveedor al otro lado.

Ahí empieza la verdadera independencia tecnológica.

Preguntas frecuentes

¿Qué significa soberanía computacional en IA?
Significa que una persona, empresa o administración puede ejecutar modelos y agentes en su propia infraestructura o dispositivo, con más control sobre datos, costes, disponibilidad y dependencia tecnológica.

¿Qué ventajas tiene usar modelos de IA en local?
Las tres principales son privacidad, menor latencia y resiliencia. El dato no tiene por qué salir del entorno controlado, se reduce la dependencia de llamadas remotas y ciertos flujos pueden seguir funcionando incluso sin conexión.

¿Ya existen modelos potentes que se puedan usar en local?
Sí. OpenAI ha publicado gpt-oss-20b y gpt-oss-120b como modelos abiertos; Google impulsa Gemma como familia de modelos abiertos para servidores, portátiles y móviles; y el ecosistema abierto también incluye familias como Qwen y Kimi.

¿La IA local va a sustituir a la IA en la nube?
No a corto plazo. Lo más probable es una convivencia. La nube seguirá siendo clave para cargas muy grandes o modelos frontier, pero la inferencia local ya es una opción real para muchas tareas donde importan el control, la privacidad y la continuidad operativa.

Lo último

×