Amazon Web Services (AWS) a apporté une mise à jour majeure à sa plateforme SageMaker, dédiée au développement et à l'inférence des modèles d'apprentissage automatique et d'intelligence artificielle, dans le but d'améliorer l'expérience utilisateur et de renforcer sa compétitivité sur le marché. Cette mise à jour inclut de nouvelles fonctionnalités d'observation, la connectivité des environnements de codage ainsi que la gestion des performances des clusters GPU.

Depuis 2024, la plateforme SageMaker s'est transformée en un centre d'intégration centralisé pour les données, intégrant plusieurs outils d'apprentissage automatique. L'objectif principal de cette mise à jour est d'aider les utilisateurs à comprendre plus clairement les raisons de la baisse de performance des modèles, tout en offrant un plus grand contrôle pour gérer l'allocation des ressources informatiques.

AWS, Amazon, services cloud, Amazon, informatique en nuage, serveurs

Ankur Mehrotra, responsable de la plateforme SageMaker chez AWS, a déclaré lors d'un entretien avec VentureBeat que beaucoup de nouvelles fonctionnalités ont été développées grâce aux retours des utilisateurs. Il a mentionné que les clients qui développent des modèles d'intelligence artificielle générative rencontrent souvent un problème : il est difficile de localiser précisément le niveau où se produit un dysfonctionnement.

Pour résoudre ce problème, la fonctionnalité d'observation SageMaker HyperPod permet aux ingénieurs de vérifier l'état de chaque couche, telle que la couche calcul ou la couche réseau. Dès qu'une baisse de performance du modèle est détectée, le système émet immédiatement une alerte et affiche les indicateurs pertinents sur le tableau de bord.

Au-delà des fonctionnalités d'observation, SageMaker propose également une nouvelle fonctionnalité de connexion à un environnement de développement intégré (IDE) local, permettant aux ingénieurs de déployer sans effort leurs projets d'intelligence artificielle développés localement sur la plateforme. Mehrotra a souligné que les modèles développés localement ne pouvaient auparavant fonctionner qu'en local, ce qui posait de nombreux défis aux développeurs souhaitant les étendre. Aujourd'hui, AWS a lancé une fonctionnalité d'exécution à distance sécurisée, permettant aux utilisateurs de développer sur leur IDE local ou géré, et de se connecter à SageMaker, pour répondre de manière flexible à différentes tâches.

AWS a lancé SageMaker HyperPod en décembre 2023, dans le but d'aider les clients à gérer les clusters de serveurs utilisés pour entraîner les modèles. HyperPod peut planifier l'utilisation des GPU selon les besoins, aidant ainsi les clients à équilibrer efficacement les ressources et les coûts. AWS a indiqué que de nombreux clients souhaitent également bénéficier d'un service similaire pour les tâches d'inférence. Comme les tâches d'inférence sont généralement effectuées pendant la journée, tandis que les tâches d'entraînement sont souvent réalisées en dehors des heures de pointe, cette nouvelle fonctionnalité offrira aux développeurs une plus grande flexibilité.

Même si Amazon n'est pas aussi visible que Google ou Microsoft en matière de modèles de base, AWS continue de fournir une infrastructure solide pour aider les entreprises à construire des modèles d'IA, des applications ou des agents. En plus de SageMaker, AWS a lancé la plateforme Bedrock, conçue spécifiquement pour la construction d'applications et d'agents. Avec les améliorations continues de SageMaker, la compétitivité d'AWS dans le domaine de l'IA pour les entreprises devient de plus en plus évidente.

Points clés :

🌟 AWS a apporté une importante mise à jour à la plateforme SageMaker, ajoutant des fonctionnalités d'observation et de connexion à un IDE local.  

⚙️ La fonctionnalité SageMaker HyperPod aide les utilisateurs à mieux gérer les clusters de serveurs et à améliorer l'utilisation des ressources.  

🚀 La stratégie d'AWS dans le domaine des infrastructures d'IA renforcera sa compétitivité sur le marché.