OpenAI ha dado un paso significativo en el mundo del aprendizaje automático con el lanzamiento de dos nuevos modelos de pesos abiertos: gpt-oss-120b y gpt-oss-20b. Estos modelos, equipados con 117 mil millones y 21 mil millones de parámetros respectivamente, han sido diseñados con una compleja arquitectura de Mezcla de Expertos (MoE) y una notable ventana de contexto de 128K. De acuerdo con los benchmarks de Artificial Analysis, estos modelos se han posicionado a la vanguardia entre los modelos de código abierto, destacándose en tareas de razonamiento y dinámicas de trabajo.
Las capacidades avanzadas de estos modelos pueden ahora ser aprovechadas a través de Amazon SageMaker AI, una plataforma que permite a los usuarios personalizar, refinar y desplegar modelos según sus preferencias con un servicio completamente gestionado. Este sistema proporciona una flexibilidad inigualable, permitiendo la incorporación de código de inferencia propio sin la necesidad de mantener complicados clústeres.
Mientras que los grandes modelos de lenguaje demuestran una habilidad superior en comprensión y generación de lenguaje, su aplicación en el mundo real, en contextos autónomos, presenta una serie de desafíos. Estos incluyen la gestión avanzada de flujos de trabajo, el uso eficiente de herramientas y la administración del contexto. Las arquitecturas basadas en múltiples agentes abordan parte de estos retos, desgajando complejos sistemas en componentes especializados pero, al mismo tiempo, introducen nuevas complejidades respecto a la coordinación y orquestación de flujos de trabajo.
Un reciente informe ha detallado el proceso para desplegar el modelo gpt-oss-20b en los endpoints gestionados de SageMaker. Además, se ha presentado un caso práctico de un asistente analizador de acciones, utilizando LangGraph, un marco basado en gráficos que facilita la gestión de estado y flujos de trabajo coordinados. Posteriormente, los agentes serán desplegados en Amazon Bedrock AgentCore, una capa de orquestación unificada que proporciona abstraer la infraestructura y operar agentes de IA de manera segura a gran escala.
La solución propuesta integra un analizador de acciones compuesto por elementos clave: el modelo GPT OSS 20B, LangGraph para la orquestación de agentes y Amazon Bedrock AgentCore para el despliegue. Esta arquitectura es fácilmente observable y permite a los usuarios someter consultas que serán gestionadas por una serie de agentes especializados.
También se ofrece orientación sobre cómo configurar los entornos, gestionar permisos y realizar despliegues eficientes, destacando la importancia de herramientas como vLLM y Amazon Elastic Container Registry para asegurar un proceso de hospedaje ágil. Esta innovación promete no solo reducir el tiempo de análisis de acciones sino también aumentar la productividad, liberando recursos valiosos para abordar desafíos más complejos y estratégicos en el ámbito empresarial.
Explorar ejemplos de código y ajustar flujos de trabajo de agentes según distintos casos de uso resalta el potencial de los modelos de código abierto para optimizar procesos, brindando a las empresas una herramienta poderosa para mejorar su eficiencia y capacidades analíticas.