La inteligencia artificial generativa sigue avanzando rápidamente, impulsando el desarrollo de nuevas herramientas y modelos. Según la consultora Gartner, la inteligencia artificial agencial se sitúa como una de las principales tendencias tecnológicas para 2025. En este escenario, las organizaciones están en una fase de prototipado, investigando el uso de estos agentes en entornos empresariales. Un desafío crucial es la necesidad de herramientas que puedan comunicarse entre sí, un aspecto que aborda el Protocolo de Contexto del Modelo (MCP), desarrollado por Anthropic.
El MCP, un protocolo de código abierto, busca crear un estándar de comunicación entre diversas herramientas, facilitando que las aplicaciones basadas en modelos de lenguaje conecten APIs empresariales y herramientas externas de manera estandarizada. Sin embargo, su implementación es compleja, especialmente en grandes organizaciones del sector financiero debido a la gobernanza de datos y la gestión de modelos operativos.
Actualmente, los equipos desarrollan herramientas de forma independiente, lo que genera duplicación de esfuerzos y desperdicio de recursos. Este enfoque silo limita la innovación y complica la integración de sistemas, dificultando la escalabilidad de las iniciativas de inteligencia artificial. Pese a estas dificultades, los modelos generativos pueden ofrecer beneficios en áreas como la automatización de post-operaciones, atención al cliente y cumplimiento regulatorio.
Un enfoque innovador propone utilizar un servidor centralizado de MCP con Amazon Bedrock, que ofrece acceso compartido a herramientas y recursos. Esto permitiría a los equipos centrarse en desarrollar capacidades de inteligencia artificial y mejorar la gobernanza y seguridad al gestionar el acceso de forma centralizada, reduciendo riesgos de exfiltración de datos.
En una organización financiera, el uso de servidores MCP se puede gestionar a través de diversas líneas de negocio, cada una con diferentes funciones. Por ejemplo, una división podría encargarse de la ejecución de operaciones, mientras que otra velaría por los controles de riesgo. Esto facilita la integración y colaboración entre divisiones, optimizando el uso de soluciones basadas en inteligencia artificial.
La arquitectura de esta solución incluye una API de descubrimiento de servidores MCP, aplicaciones agenciales alojadas en AWS Fargate y un hub central de servidores MCP, lo que asegura que la infraestructura sea escalable y segura.
Los beneficios son significativos, proporcionando escalabilidad y resistencia sin necesidad de una gestión compleja de infraestructura. La seguridad se incrementa mediante controles de red que garantizan conexiones seguras a los servidores MCP de confianza dentro de la organización.
Este modelo no solo se limita al sector financiero, sino que puede aplicarse en diversas cargas de trabajo empresariales, proponiendo pasos claros para su implementación en diferentes escenarios.
En definitiva, esta solución representa un enfoque práctico y centralizado para desplegar servidores MCP en AWS, permitiendo a las organizaciones centrarse en desarrollar aplicaciones innovadoras mientras superan ineficiencias operativas. La centralización agiliza flujos de trabajo más inteligentes, ofreciendo mejores resultados para los clientes.