OpenAI ha fichado a Peter Steinberger, creador de OpenClaw, un asistente de inteligencia artificial de código abierto que se ha hecho viral por una razón muy concreta: no se limita a conversar, sino que está diseñado para ejecutar tareas en el día a día. El anuncio lo realizó Sam Altman en X, donde aseguró que Steinberger se une a la compañía para impulsar “la próxima generación de agentes personales” y describió el futuro como “extremadamente multiagente”. Al mismo tiempo, OpenAI prometió que OpenClaw seguirá siendo open source y pasará a gestionarse bajo una fundación con apoyo continuado por parte de OpenAI.
El movimiento llega en un momento en el que el sector intenta dar el salto de los chatbots a algo más ambicioso: programas que puedan planificar, decidir y actuar conectándose a herramientas reales (correo, agenda, mensajería o servicios online). En términos sencillos, la industria empieza a competir no solo por “quién responde mejor”, sino por quién automatiza mejor.
De chatbot a agente: la diferencia que cambia las reglas
Para el público general, “agente de IA” puede sonar a otra palabra de moda. Sin embargo, el matiz es importante. Un chatbot contesta preguntas. Un agente, en cambio, está pensado para hacer gestiones con objetivos: por ejemplo, ordenar el correo, tramitar interacciones repetitivas o comprobar información operativa (como viajes). Precisamente esa orientación a tareas es lo que Reuters subraya al describir por qué OpenClaw se ha convertido en un fenómeno: los usuarios lo han adoptado por su capacidad para ocuparse de tareas concretas, más allá del texto.
Esa promesa, no obstante, implica una consecuencia directa: si un sistema “hace” cosas, necesita permisos. Y cuando hay permisos —acceso a cuentas, tokens, datos— el debate deja de ser solo tecnológico y pasa a ser también de seguridad y control.
Un proyecto viral… y el tipo de viralidad que preocupa a reguladores
OpenClaw no se ha hecho grande poco a poco: explotó. Reuters apunta que el proyecto acumuló más de 100.000 estrellas en GitHub y alcanzó 2.000.000 de visitantes en una sola semana.
El éxito, sin embargo, ha venido acompañado del otro lado de la moneda. Reuters también informó de una advertencia del Ministerio de Industria y Tecnología de la Información de China (MIIT) sobre riesgos de seguridad ligados a configuraciones incorrectas que podrían derivar en ataques o filtraciones si se despliega sin controles. No es una prohibición, pero sí un aviso que encaja con el patrón habitual: cuando una herramienta se populariza y además automatiza acciones, los reguladores empiezan a mirar de cerca.
Por qué una fundación importa cuando se habla de open source
La frase “OpenClaw vivirá en una fundación” no es un detalle administrativo menor. En el mundo del software libre, una fundación suele funcionar como un marco de gobernanza que busca dar continuidad al proyecto, facilitar contribuciones y evitar que dependa por completo de una sola empresa o de una única persona.
Steinberger lo expresó en su propio blog: se une a OpenAI para trabajar en llevar los agentes “a todo el mundo”, mientras OpenClaw se mueve a una fundación para seguir siendo “abierto e independiente”.
En paralelo, Altman quiso dejar clara la intención de OpenAI: apoyar el open source “como parte” de un futuro multiagente. Ese mensaje apunta a un equilibrio delicado: captar talento y acelerar producto, sin cerrar la puerta a una comunidad que, precisamente, ha sido motor de adopción.
Implicaciones para usuarios: comodidad… a cambio de confianza
Para un usuario medio, el atractivo de los agentes es obvio: menos tareas repetitivas, menos “clics”, menos tiempo perdido. Si un asistente puede entender instrucciones, conectarse a servicios y ejecutar pasos, la productividad sube. Pero el precio es otro: confiar.
A diferencia de un chatbot, un agente puede tocar cosas sensibles: cuentas, mensajes, documentos, compras, reservas. En consecuencia, la conversación pública tenderá a girar alrededor de preguntas muy terrenales:
- ¿Qué permisos se le dan y durante cuánto tiempo?
- ¿Queda registro de lo que hace?
- ¿Se puede deshacer una acción?
- ¿Qué pasa si una integración o extensión es insegura?
El caso de OpenClaw muestra que el debate no es teórico: la propia viralidad ha venido acompañada de advertencias sobre riesgos si se despliega sin buenas prácticas, precisamente porque el “poder” del agente depende de su acceso.
Implicaciones para el mercado: la IA se vuelve “infraestructura”
El fichaje también revela una tendencia empresarial: las compañías de IA quieren controlar la capa que conecta el modelo con el trabajo real. Es decir, la parte que integra aplicaciones, automatiza procesos y convierte la IA en una utilidad diaria.
La lectura que hacen varios medios es similar: Steinberger llega para ayudar a OpenAI a construir agentes más capaces y seguros, en un terreno donde la competencia se está acelerando.
En términos de industria, eso sugiere tres efectos previsibles:
- Más “agentes” en productos cotidianos, no solo en entornos técnicos.
- Más presión regulatoria por privacidad, trazabilidad y seguridad cuando la IA opera con permisos.
- Mayor valor del open source como mecanismo de transparencia, auditoría y alternativas, especialmente para organizaciones que prefieren entender y controlar lo que despliegan.
Una señal sobre 2026: el foco pasa del “hablar” al “hacer”
El anuncio no detalla qué productos concretos saldrán de esta incorporación ni plazos. Pero sí deja una señal clara: OpenAI considera que los “agentes personales” serán parte central de su propuesta, y que el futuro será multiagente (varios agentes coordinándose para completar tareas).
Para el gran público, la consecuencia práctica es sencilla de anticipar: si hoy la IA ayuda a redactar, resumir o buscar, mañana se intentará que la IA gestione. Y cuando la IA gestiona, entran en juego confianza, seguridad y control. La noticia del fichaje de Steinberger y la continuidad abierta de OpenClaw funciona, en el fondo, como un indicador de hacia dónde se mueve el mercado: menos “demo”, más “operación”.
Preguntas frecuentes
¿Qué es un “agente de IA personal” y en qué se diferencia de un chatbot?
Un agente está pensado para ejecutar tareas conectándose a servicios (correo, agenda, apps), mientras un chatbot normalmente se limita a responder o generar contenido.
¿OpenClaw seguirá siendo open source tras la llegada de su creador a OpenAI?
Sí. Según lo anunciado, OpenClaw pasará a una fundación y OpenAI mantendrá su apoyo, manteniéndose como proyecto abierto.
¿Qué riesgos de privacidad y seguridad preocupan con este tipo de asistentes?
El riesgo principal aparece si se despliegan con permisos amplios o sin controles: una mala configuración puede derivar en exposición de datos o acciones no deseadas. Reguladores como el MIIT chino han advertido de estos escenarios si se usa sin medidas de seguridad.
¿Por qué es importante que el proyecto se gestione con una fundación?
Porque suele aportar reglas de gobernanza y continuidad: reduce la dependencia de una sola empresa, facilita contribuciones y ayuda a preservar la naturaleza abierta del proyecto.