Amazon Web Services (AWS) ha realizado una importante actualización de su plataforma de entrenamiento y razonamiento de modelos de aprendizaje automático e inteligencia artificial, SageMaker, con el objetivo de mejorar la experiencia del usuario y fortalecer su competitividad en el mercado. Esta actualización incluye nuevas funciones de observabilidad, conexión con entornos de codificación y gestión del rendimiento de clusters de GPU.
Desde 2024, la plataforma SageMaker se ha convertido en un centro integrado de fuentes de datos, integrando varias herramientas de aprendizaje automático. El principal objetivo de esta actualización es ayudar a los usuarios a comprender claramente las razones del descenso en el rendimiento de los modelos, al mismo tiempo que brinda un mayor control para gestionar la asignación de recursos computacionales.
Ankur Mehrotra, gerente de SageMaker de AWS, dijo en una entrevista con VentureBeat que muchas de las nuevas funciones fueron inspiradas por comentarios de los usuarios. Mencionó que los clientes que desarrollan modelos de inteligencia artificial generativa a menudo enfrentan el problema de que, cuando ocurren problemas, es difícil identificar la capa específica donde ocurren los fallos.
Para ayudar a resolver este problema, la función de observabilidad SageMaker HyperPod permite a los ingenieros revisar el estado de varias capas, como la capa computacional y la capa de red. Cuando el rendimiento del modelo disminuye, el sistema emite alertas inmediatamente y publica métricas relacionadas en el tablero de control.
Además de las funciones de observabilidad, SageMaker también ha introducido una nueva función de conexión con entornos de desarrollo integrados (IDE) locales, permitiendo a los ingenieros implementar sin problemas sus proyectos de IA escritos localmente en la plataforma. Mehrotra señaló que antes, los modelos creados localmente solo podían ejecutarse localmente, lo que representaba un gran desafío para los desarrolladores que querían escalar. Ahora, AWS ha lanzado una función de ejecución remota segura, permitiendo a los usuarios desarrollar en sus IDE locales o en el IDE administrado y conectarse a SageMaker, adaptándose flexiblemente a diferentes tareas.
AWS lanzó SageMaker HyperPod en diciembre de 2023 con el objetivo de ayudar a los clientes a gestionar los clusters de servidores utilizados para entrenar modelos. HyperPod puede programar el uso de GPUs según los patrones de demanda, ayudando a los clientes a equilibrar eficientemente los recursos y los costos. AWS indicó que muchos clientes desean tener un servicio similar para tareas de razonamiento. Debido a que las tareas de razonamiento generalmente se realizan durante el día y las tareas de entrenamiento suelen realizarse en horarios pico, esta nueva función ofrecerá a los desarrolladores una mayor flexibilidad.
Aunque Amazon no sea tan destacada en modelos base como Google o Microsoft, AWS sigue comprometida con proporcionar una infraestructura sólida para construir modelos, aplicaciones o agentes de inteligencia artificial para empresas. Además de SageMaker, AWS también lanzó la plataforma Bedrock, diseñada específicamente para la construcción de aplicaciones y agentes. Con las continuas actualizaciones de SageMaker, la competitividad de AWS en el sector de la inteligencia artificial empresarial se vuelve cada vez más evidente.
Resumen:
🌟 AWS ha realizado una importante actualización de la plataforma SageMaker, agregando funciones de observabilidad y conexión con IDE locales.
⚙️ La función SageMaker HyperPod ayuda a los usuarios a gestionar mejor los clusters de servidores, mejorando la utilización de los recursos.
🚀 La estrategia de AWS en infraestructura de inteligencia artificial fortalecerá su ventaja competitiva en el mercado.