La forma en la que se consume la web está cambiando a gran velocidad. No solo por la caída del clic en ciertos contextos, sino porque cada vez más usuarios llegan a la información a través de asistentes, resúmenes y agentes que “leen” páginas para responder, recomendar o ejecutar acciones. En ese nuevo escenario, AgentReady.md se presenta como una herramienta online y gratuita con una promesa muy directa: analizar en segundos si una página está preparada para ser comprendida y reutilizada por agentes de Inteligencia Artificial.
El servicio funciona sin registro y, en su versión beta, permite hasta 5 análisis por hora. El usuario introduce una URL, y la plataforma devuelve una puntuación de “AI-readiness” junto con recomendaciones priorizadas, una conversión a Markdown optimizada y una guía paso a paso para implementar mejoras técnicas con fragmentos listos para copiar y pegar.
De SEO a “AI-readiness”: qué mide y por qué importa
AgentReady.md parte de una idea que muchos equipos de marketing y desarrollo ya están asumiendo: los agentes no “ven” la web como un navegador. Mientras un navegador renderiza HTML, CSS y JavaScript para mostrar una interfaz visual, un agente necesita extraer texto, estructura y metadatos de la forma más limpia posible. En este contexto, la herramienta destaca el valor de un contenido bien organizado y “legible por máquina” para lograr citaciones más precisas, mayor presencia en respuestas generadas y un menor coste de procesamiento.
De hecho, el propio proyecto remarca que una página bien estructurada, convertida a Markdown, puede requerir entre un 70 % y un 80 % menos de tokens que el HTML “en bruto”, lo que mejora eficiencia y reduce fricción para los sistemas que consumen ese contenido.
Cómo funciona el análisis: tres pasos y un informe accionable
El flujo está diseñado para ser casi inmediato:
- Introducir la URL: la herramienta obtiene la página, extrae el contenido y analiza su estructura HTML.
- Recibir una puntuación: el resultado incluye una valoración global basada en 5 dimensiones y un total de 21 comprobaciones.
- Implementar mejoras: AgentReady.md prioriza recomendaciones y aporta snippets de implementación para subir la nota.
El foco no está solo en “aprobar”, sino en convertir el informe en una lista de tareas realista: ajustar estructura, reforzar señales de descubrimiento, mejorar metadatos y reducir ruido innecesario.
Las 5 dimensiones del scoring: dónde suelen fallar muchas webs
La plataforma reparte el peso del análisis en cinco bloques, cada uno con su propia lógica técnica:
- HTML semántico (20 %): evalúa el uso de elementos como
article,main, jerarquía de encabezados y textos alternativos de imágenes. - Eficiencia del contenido (25 %): mira ratios como reducción de tokens, proporción contenido/ruido, estilos en línea y “peso” general de la página.
- Visibilidad para IA (25 %): comprueba señales como
llms.txt,robots.txt, permisos a bots,sitemap, negociación de Markdown y cabeceras tipo Content-Signal. - Datos estructurados (15 %): revisa Schema.org/JSON-LD, Open Graph, meta description, canonical y atributo de idioma.
- Accesibilidad (15 %): valida, entre otras cosas, que el contenido sea accesible sin depender de JavaScript, además del tamaño de página y la posición del contenido en el HTML.
Este desglose es útil porque transforma una discusión abstracta (“mi web está preparada para IA”) en un mapa de trabajo: lo que se arregla en front, lo que se resuelve en servidor, y lo que compete a contenido y metadatos.
llms.txt, llms-full.txt y la nueva “capa editorial” para agentes
Uno de los conceptos centrales que impulsa AgentReady.md es llms.txt, un estándar emergente que pretende hacer para los agentes lo que robots.txt hizo para los buscadores: ofrecer una guía clara sobre la estructura del sitio, en formato Markdown, con enlaces a las páginas clave.
La FAQ del proyecto diferencia dos niveles:
- llms.txt: índice conciso con descripción y enlaces a páginas principales.
- llms-full.txt: versión extendida que incluye el contenido de esas páginas “en línea”, para que el agente lo tenga todo en un solo archivo sin seguir enlaces.
En términos prácticos, esto abre una nueva disciplina que mezcla documentación, arquitectura de la información y estrategia editorial: decidir qué páginas son “núcleo”, cómo se presentan y cómo se guía a un consumidor no humano por el sitio.
Markdown “negociado” por cabeceras: servir mejor contenido sin crear URLs paralelas
La herramienta también pone el foco en una técnica con bastante sentido para equipos técnicos: la negociación de contenido. La idea es que el servidor pueda entregar el mismo recurso en diferentes formatos según la cabecera Accept del cliente.
En el caso de agentes, si el cliente solicita Accept: text/markdown, el servidor podría responder con una versión Markdown en lugar de HTML. Esto evita tener que mantener rutas duplicadas o páginas espejo, y permite una entrega más eficiente y menos ruidosa cuando el consumidor es un sistema que solo necesita contenido estructurado.
Robots, bots y control: qué permitir y qué bloquear
Otro apartado que aparece en el análisis y en las preguntas frecuentes es el papel de robots.txt. AgentReady.md insiste en que muchos crawlers de IA respetan estas directivas, por lo que bloquearlos puede traducirse, directamente, en “no existes” dentro de ciertas experiencias de respuesta generativa.
En la lista de rastreadores citados aparecen agentes conocidos en el ecosistema (como GPTBot, ClaudeBot, PerplexityBot o Google-Extended), junto a otros bots y fuentes de rastreo a gran escala. La herramienta plantea el asunto desde un enfoque pragmático: decidir qué se permite y ser consistente con esa decisión.
Una herramienta gratuita hoy, con análisis de dominio en el radar
AgentReady.md ofrece de forma gratuita el análisis de una URL con su puntuación, recomendaciones y conversión a Markdown. En su hoja de ruta, el proyecto adelanta un análisis de dominio completo (rastreo del sitio, generación de llms.txt y monitorización de la puntuación en el tiempo), disponible próximamente mediante lista de espera.
Detrás del proyecto figuran Color Vivo y David Carrero, con el servicio alojado en Stackscale (Grupo Aire), y con un guiño explícito a su origen: “hecho desde Madrid y Herencia (Ciudad Real)”. Más allá del detalle local, el mensaje es claro: la herramienta nace con mentalidad de producto y con un objetivo concreto, facilitar que cualquier web—desde un blog hasta un comercio o un medio digital—pueda adaptarse a la forma en la que los agentes ya están consumiendo Internet.
Preguntas frecuentes
¿Para qué tipo de webs tiene más sentido usar AgentReady.md?
Para sitios con contenido informativo (medios, blogs, documentación), negocios que dependen de visibilidad (servicios locales, ecommerce) y proyectos con muchas URLs donde un fallo de estructura o metadatos puede reducir citaciones o comprensión por parte de agentes.
¿Qué mejoras suelen dar resultados rápidos en la puntuación de “AI-readiness”?
Normalmente, ordenar la jerarquía de encabezados, limpiar HTML semántico, añadir metadatos básicos (descripción, canonical, idioma), y reforzar datos estructurados (JSON-LD / Open Graph) suele aportar mejoras visibles sin reescribir el sitio completo.
¿Qué es llms.txt y por qué puede influir en que un agente “encuentre” mi contenido?
Es un índice en Markdown en la raíz del dominio que describe el sitio y enlaza a páginas clave. Actúa como guía de navegación para agentes, similar al papel histórico de robots.txt para crawlers de búsqueda.
¿Se puede servir Markdown sin duplicar páginas ni crear URLs nuevas?
Sí: mediante negociación de contenido (cabecera Accept) se puede entregar HTML a navegadores y Markdown a agentes, manteniendo una única URL como fuente canónica.