A Amazon Web Services (AWS) realizou uma atualização significativa para sua plataforma de treinamento e inferência de modelos de aprendizado de máquina e inteligência artificial, o SageMaker, visando melhorar a experiência do usuário e aumentar sua competitividade no mercado. Essa atualização inclui novas funcionalidades de observabilidade, conexão com ambientes de codificação e gerenciamento de clusters de GPU.
Desde 2024, a plataforma SageMaker tornou-se um centro integrado de fontes de dados únicas, integrando várias ferramentas de aprendizado de máquina. O principal objetivo dessa atualização é ajudar os usuários a entenderem mais claramente as causas da queda no desempenho dos modelos, ao mesmo tempo em que oferecem maior controle para gerenciar a alocação de recursos computacionais.
Ankur Mehrotra, gerente do SageMaker da AWS, disse à VentureBeat que muitas das novas funcionalidades foram inspiradas nos comentários dos usuários. Ele mencionou que os clientes que desenvolvem modelos de inteligência artificial gerada frequentemente enfrentam o problema de dificuldade em identificar a camada exata onde ocorre uma falha.
Para resolver esse problema, a nova funcionalidade de observabilidade do SageMaker HyperPod permite que os engenheiros verifiquem o estado de diferentes camadas, como a camada computacional e a camada de rede. Assim que o desempenho do modelo cair, o sistema emitirá alertas imediatos e publicará métricas relevantes no painel de controle.
Além das funcionalidades de observabilidade, o SageMaker também adicionou uma nova funcionalidade de conexão com ambientes de desenvolvimento integrado (IDE) locais, permitindo que os engenheiros implantem projetos de IA escritos localmente de forma transparente na plataforma. Mehrotra destacou que, antes, os modelos codificados localmente só podiam ser executados localmente, o que representava um grande desafio para os desenvolvedores que queriam expandi-los. Agora, a AWS lançou uma função de execução remota segura, permitindo que os usuários desenvolvam em seus próprios IDEs locais ou gerenciados e se conectem ao SageMaker, adaptando-se flexivelmente a diferentes tarefas.
A AWS lançou o SageMaker HyperPod em dezembro de 2023, com o objetivo de ajudar os clientes a gerenciarem clusters de servidores para treinar modelos. O HyperPod pode agendar o uso de GPUs de acordo com padrões de demanda, ajudando os clientes a equilibrar eficientemente recursos e custos. A AWS afirma que muitos clientes desejam obter um serviço semelhante também para tarefas de inferência. Como as tarefas de inferência geralmente ocorrem durante o dia, enquanto as tarefas de treinamento ocorrem normalmente em horários fora de pico, essa nova funcionalidade oferecerá maior flexibilidade aos desenvolvedores.
Ainda que a Amazon não seja tão notável em modelos base quanto Google e Microsoft, a AWS continua comprometida em fornecer uma infraestrutura sólida para empresas construírem modelos, aplicações ou agentes de inteligência artificial. Além do SageMaker, a AWS lançou a plataforma Bedrock, especialmente projetada para a construção de aplicações e agentes. Com os constantes aprimoramentos do SageMaker, a competitividade da AWS no setor de inteligência artificial empresarial torna-se cada vez mais evidente.
Principais pontos:
🌟 A AWS realizou uma atualização significativa no SageMaker, adicionando funcionalidades de observabilidade e conexão com IDE locais.
⚙️ A funcionalidade SageMaker HyperPod ajuda os usuários a gerenciarem melhor os clusters de servidores, aumentando a utilização de recursos.
🚀 O posicionamento da AWS no setor de infraestrutura de inteligência artificial reforçará sua vantagem competitiva no mercado.