Durante años, aprender a programar fue la puerta de entrada casi obligatoria para crear producto digital. Quien sabía traducir una idea en código tenía una ventaja clara frente a quien solo entendía el negocio, el diseño o la operación. Esa frontera no ha desaparecido, pero sí ha empezado a moverse a gran velocidad. La Inteligencia Artificial no ha “matado” el software, pero sí está erosionando una barrera histórica: la que separaba a quienes imaginaban una herramienta de quienes podían construirla.
La prueba más clara de ese cambio no está en un tuit viral ni en una demo llamativa, sino en cómo están evolucionando las propias plataformas. Anthropic define Claude Code como un sistema de programación agéntica que lee una base de código, hace cambios en varios archivos, ejecuta pruebas y entrega código listo para revisar. Y lo presenta, además, como un punto de entrada al desarrollo para personas sin formación de ingeniería, no solo como una ayuda para programadores veteranos.
Ya no se trata solo de autocompletar código
Hasta hace poco, el gran salto de la IA aplicada al desarrollo era el autocompletado: sugerencias de líneas, funciones o bloques de código mientras el usuario escribía. Ese modelo sigue existiendo, pero ya no es el centro de la conversación. La nueva capa está en los agentes: sistemas que entienden una tarea, recorren el repositorio, proponen un plan, modifican archivos, prueban resultados y vuelven a iterar sin que el usuario tenga que dirigir cada paso al detalle. GitHub lo reconoce abiertamente en sus flujos agénticos para repositorios, donde distintos motores pueden ejecutar trabajo autónomo dentro de un entorno controlado, aunque siempre con revisión humana al final.
Ese cambio importa porque desplaza el valor. Si antes lo diferencial estaba en escribir cada línea, ahora empieza a estar en saber definir el objetivo, descomponer el problema, revisar bien el resultado y decidir qué merece llegar a producción. Anthropic lo formula de una manera muy explícita: en su visión, los ingenieros pasan a centrarse más en arquitectura, pensamiento de producto y orquestación continua de varios agentes en paralelo. Es decir, menos implementación manual y más supervisión estratégica del sistema.
No es una intuición aislada. El último Anthropic Economic Index señala que la programación sigue siendo el uso más común de sus plataformas: las tareas asociadas a ocupaciones de informática y matemáticas representaron el 35 % de las conversaciones en Claude.ai. Además, la compañía explica que una parte creciente del trabajo de programación se está desplazando hacia su API y hacia Claude Code, donde las tareas se fragmentan en múltiples llamadas más pequeñas propias de una arquitectura agéntica.
La barrera de entrada baja, pero la complejidad no desaparece
Todo esto alimenta una idea tentadora: que programar ya no será una habilidad central porque cualquiera podrá construir software útil describiendo lo que quiere en lenguaje natural. Hay algo de verdad en eso, pero también bastante simplificación. Lo que la IA está abaratando es, sobre todo, la construcción de primeras versiones, automatizaciones internas, prototipos, migraciones rutinarias, refactors sencillos y tareas repetitivas dentro de un contexto bien delimitado. Otra cosa muy distinta es operar software crítico con garantías.
La arquitectura, la seguridad, la observabilidad, la integración entre sistemas, la gestión de errores, el rendimiento y el mantenimiento siguen ahí. De hecho, cuanto más autónomos se vuelven estos agentes, más importante es el control humano. GitHub insiste en que sus flujos agénticos deben ejecutarse con sandboxing, permisos, revisión y aprobación humanas, y recuerda que las pull requests generadas por agentes no se fusionan automáticamente. Es una forma elegante de reconocer que la automatización sirve, pero todavía no elimina la necesidad de criterio técnico ni de gobernanza.
Por eso sería un error leer esta transición como la muerte del desarrollador. Lo que está muriendo, en todo caso, es una forma muy concreta de entender el trabajo del desarrollador: la del especialista cuyo valor se mide casi solo por la cantidad de código que produce a mano. El nuevo escenario premia más a quien sabe coordinar herramientas, validar resultados, detectar errores de diseño, imponer límites y traducir objetivos de negocio en instrucciones útiles para agentes.
También se acaba la ficción de la IA barata e ilimitada
Hay otra consecuencia menos visible pero igual de importante: este nuevo modelo no es barato. GitHub acaba de endurecer las condiciones de sus planes individuales de Copilot precisamente porque los workflows agénticos están consumiendo muchos más recursos de los previstos. La compañía ha pausado nuevas altas en varios planes, ha reforzado límites por sesión y por semana y ha reducido la disponibilidad de ciertos modelos. Además, explica que esos límites dependen del consumo de tokens y del multiplicador del modelo elegido, no solo del número de peticiones.
El mensaje de fondo es muy revelador. GitHub admite que las sesiones largas y paralelas se han vuelto mucho más caras y que, sin ajustes, la calidad del servicio se resentiría para todos. También reconoce que los límites semanales se introducen para controlar solicitudes prolongadas y paralelizadas que generan costes prohibitivos. En otras palabras: la IA agéntica no solo cambia quién puede construir software, sino también cuánto cuesta sostener ese modelo a escala.
Ese punto suele quedar fuera del entusiasmo inicial, pero es decisivo. Si describir una tarea ya basta para poner en marcha varios ciclos de análisis, edición, prueba y corrección, el consumo computacional crece muy deprisa. GitHub recuerda incluso que sus flujos agénticos en repositorio generan facturación por uso de agentes en tiempo de ejecución y que cada ejecución típica con Copilot incorpora peticiones premium y comprobaciones de seguridad. La consecuencia es clara: el futuro del software asistido por IA no dependerá solo de la calidad del modelo, sino también de cómo se gobiernan los tokens, los costes y el grado de autonomía que realmente compensa.
Lo que viene no es el fin de programar, sino otra profesión
La conclusión más realista no es que “programar ha muerto”, sino que construir software está dejando de ser una actividad reservada exclusivamente a quienes dominan la sintaxis. Habrá más perfiles no técnicos capaces de lanzar prototipos, herramientas internas y automatizaciones útiles. Habrá también más presión sobre los equipos de ingeniería para justificar su valor en arquitectura, seguridad, integración y control. Y, sobre todo, habrá una redefinición del oficio: menos mecanografía de código, más dirección de sistemas de software asistidos por agentes.
Esa transición puede incomodar a muchos profesionales, pero no debería sorprender. La historia del software siempre ha consistido en subir de nivel de abstracción: del ensamblador a los lenguajes de alto nivel, de ahí a los frameworks, luego a las plataformas cloud y ahora a los agentes. La novedad no es que desaparezca el trabajo humano, sino qué parte de ese trabajo deja de ser la más escasa. Y lo que empieza a escasear ya no es solo quien sabe escribir código, sino quien sabe decidir bien qué merece construirse, con qué límites y bajo qué supervisión.
Preguntas frecuentes
¿La IA ya puede crear software útil sin un programador tradicional?
Sí, en ciertos casos. Anthropic sostiene que Claude Code puede servir como punto de entrada al desarrollo para personas sin perfil de ingeniería y que ya permite construir prototipos, herramientas internas y proyectos sencillos a partir de objetivos expresados en lenguaje natural.
¿Eso significa que los desarrolladores van a desaparecer?
No. Lo que cambia es el reparto del trabajo. La generación de código se automatiza más, pero siguen siendo críticos la arquitectura, la seguridad, la integración, la revisión y la validación del software antes de ponerlo en producción.
¿Por qué GitHub ha endurecido los límites de Copilot?
Porque, según la propia compañía, los workflows agénticos consumen muchos más recursos de los que soportaba la estructura original de los planes individuales. Por eso ha pausado nuevas altas, ajustado límites y restringido modelos en algunos planes.
¿La programación sigue siendo uno de los usos principales de la IA?
Sí. Anthropic indica que las tareas asociadas a ocupaciones de informática y matemáticas siguen siendo el uso más común en Claude.ai y representaron el 35 % de las conversaciones analizadas en su informe de marzo de 2026.