Amazon ha anunciado la incorporación de una nueva funcionalidad a su plataforma de inteligencia artificial, SageMaker AI, diseñada para optimizar los modelos de lenguaje GPT-OSS mediante el uso de recetas de SageMaker HyperPod y trabajos de entrenamiento. Este avance es parte de una serie de desarrollos destinados a mejorar el rendimiento de estos modelos en el razonamiento estructurado multilingüe.

En la primera entrega de esta serie, se demostró cómo afinar modelos GPT-OSS usando bibliotecas de código abierto de Hugging Face en trabajos de entrenamiento realizados en SageMaker. Ahora, las nuevas recetas de HyperPod proporcionan a los usuarios una forma rápida y accesible de entrenar y afinar modelos de inteligencia artificial como Llama de Meta y Mistral. Estas recetas incluyen configuraciones preestablecidas y validadas que simplifican la creación de entornos de entrenamiento distribuidos, garantizando así un rendimiento eficaz y escalable a nivel empresarial.

Esta solución permite ejecutar trabajos de ajuste fino utilizando SageMaker HyperPod, facilitando su orquestación a través de Amazon Elastic Kubernetes Service (EKS). Para aprovechar al máximo esta funcionalidad, las organizaciones deben contar con una configuración inicial específica, que incluye un entorno de desarrollo local con credenciales de AWS y varias instancias ml.p5.48xlarge, entre otros requisitos.

El proceso comienza con la preparación de un conjunto de datos adecuado, en este caso el dataset «HuggingFaceH4/Multilingual-Thinking», que contiene ejemplos de razonamiento en diversos idiomas. Luego, los datos se preparan y tokenizan, y se utilizan las recetas para el ajuste fino, tras lo cual el modelo entrenado se implementa en un endpoint de SageMaker para pruebas y evaluación.

Los expertos subrayan que SageMaker no solo facilita la formación de modelos utilizando recursos temporales, sino que también ofrece un entorno persistente para el desarrollo continuo a través de HyperPod, lo cual permite a las organizaciones experimentar de manera más eficiente con sus modelos.

Una vez ajustados, los modelos se despliegan utilizando contenedores optimizados en Amazon Elastic Container Registry (ECR). Esto garantiza que las aplicaciones dispongan de los recursos necesarios para ejecutar inferencias en tiempo real. Además, SageMaker traduce configuraciones y prepara las variables necesarias para asegurar un rendimiento óptimo.

Este nuevo avance promete hacer más accesible y manejable el ajuste y despliegue de modelos de lenguaje grandes, ofreciendo un atractivo potencial para organizaciones de diferentes tamaños. Las guías y recursos están disponibles en los repositorios de GitHub de Amazon, proporcionando ejemplos y documentación detallada para los desarrolladores interesados en esta innovadora tecnología.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×