À la fin de la conférence mondiale sur le développement de l'IA 2025, AMD et OpenAI ont conjointement lancé les nouvelles puces d'IA Instinct MI400 et MI350. Cette présentation a attiré l'attention de nombreux professionnels de l'industrie, et le PDG d'OpenAI, Sam Altman, a également assisté personnellement à la conférence pour partager son expérience de coopération avec AMD lors du processus de développement des puces.

image.png

Capacité de calcul IA avancée

Les nouvelles puces GPU Instinct MI350 d'AMD, basées sur l'architecture CDNA4, ont été conçues spécifiquement pour les infrastructures modernes d'intelligence artificielle. Parmi elles, les GPU MI350X et MI355X ont considérablement amélioré les performances de calcul IA. La série MI350 est équipée de 288 Go de mémoire HBM3E, avec une bande passante mémoire pouvant atteindre 8 TB/s. Comparé aux produits précédents, la capacité de calcul IA a augmenté de 4 fois, tandis que les performances d'inférence ont augmenté de 35 fois.

Comparée aux puces concurrentes de Nvidia, la puce MI355X offre jusqu'à 40 % de tokens supplémentaires par dollar, ce qui en fait un excellent choix. La performance FP4 de la MI355X peut atteindre 161 PFLOPS, tandis que la performance FP16 de la MI350X peut atteindre 36,8 PFLOPS, garantissant ainsi un fonctionnement efficace dans les applications d'IA.

Solutions de refroidissement flexibles et déploiement évolué

Outre les performances, les GPU d'AMD offrent également une configuration flexible de refroidissement, adaptée aux déploiements à grande échelle. Par exemple, un rack refroidi par air peut supporter jusqu'à 64 GPU, tandis qu'un environnement de refroidissement liquide direct peut supporter jusqu'à 128 GPU, ce qui accroît considérablement la flexibilité de leur application.

Plateforme d'accélération logicielle open source ROCm7

Pour améliorer encore plus les performances des GPU, AMD a également lancé la plateforme d'accélération logicielle open source ROCm7. Après un an de développement, ROCm est maintenant mature et s'intègre profondément avec plusieurs plateformes d'IA mondialement reconnues, comme LLaMA et DeepSeek. La version ROCm7 à venir offrira une augmentation de plus de 3,5 fois des performances d'inférence, fournissant un soutien technique puissant aux développeurs d'IA.

Puces d'IA de nouvelle génération Instinct MI400

La série Instinct MI400 est la prochaine puce phare d'IA d'AMD, qui devrait être équipée de 432 Go de mémoire HBM4 haute vitesse, avec une bande passante mémoire pouvant atteindre 300 GB/s. Dans la précision FP4, la performance de calcul de la MI400 peut atteindre 40 petaflops, optimisée pour le calcul en faible précision dans l'entraînement IA. De plus, la série MI400 utilise la technologie UALink pour permettre la connexion fluide de 72 GPU, formant ainsi une unité de calcul unifiée et brisant les limites de communication des architectures traditionnelles.

image.png

Projet de coopération avec plusieurs entreprises

Actuellement, Oracle, Microsoft, Meta, xAI et d'autres entreprises collaborent avec AMD pour utiliser ses puces d'IA. Oracle utilisera dans un premier temps des solutions alimentées par la puce Instinct MI355X dans son infrastructure cloud. L'exécutif en charge des infrastructures cloud chez Oracle, Mahesh Thiagarajan, a déclaré que cette collaboration a grandement amélioré l'évolutivité et la fiabilité de ses services, et qu'il prévoit de continuer à approfondir cette coopération à l'avenir.