Oracle prévoit de prendre une initiative majeure pour défier le leadership de NVIDIA sur le marché des puces d'intelligence artificielle. L'entreprise a annoncé qu'elle déployerait 50 000 accélérateurs d'intelligence artificielle MI450 d'AMD dans son infrastructure à partir de 2026. Cette action marque l'émergence d'Oracle sur le marché compétitif des services cloud en intelligence artificielle, où de nombreuses entreprises se disputent des puces performantes pour soutenir les charges de travail d'intelligence artificielle générative.
Remarque sur la source de l'image : l'image a été générée par IA, le fournisseur de licence est Midjourney
Karan Batta, vice-président senior du cloud infrastructure d'Oracle, a déclaré : « Nous pensons que les clients seront très satisfaits des produits d'AMD, notamment dans le domaine de l'inférence. » Cette annonce comprend deux initiatives : d'une part, Oracle renforce sa force matérielle grâce à un partenariat avec AMD, et d'autre part, elle lance un nouveau plateau de données qui soutient les normes ouvertes.
Oracle indique qu'elle commencera à déployer les accélérateurs AI d'AMD au troisième trimestre 2026, et prévoit d'élargir davantage après l'augmentation de la capacité de production. Ce plan renforce la position d'Oracle sur le marché croissant des infrastructures en intelligence artificielle, offrant aux clients de nouvelles options dans un marché dominé principalement par les GPU de NVIDIA. Après l'annonce, les actions d'AMD ont grimpé de plus de 3 %, montrant la confiance du marché dans sa capacité à rivaliser à grande échelle.
En outre, cette investissement d'Oracle et son collaboration approfondie avec AMD reflètent une montée en importance de la diversité matérielle dans l'industrie. L'extension prochaine de l'infrastructure cloud d'Oracle permettra aux clients d'utiliser des instances de GPU d'AMD et de NVIDIA, améliorant ainsi la flexibilité pour l'entraînement et l'inférence des modèles d'intelligence artificielle. Cette initiative est également étroitement liée à un accord de cinq ans d'un montant de 3 milliards de dollars entre Oracle et OpenAI, OpenAI utilisant l'infrastructure cloud d'Oracle pour exécuter des charges de travail en intelligence artificielle.
Cependant, des questions subsistent concernant la rentabilité de cette opération. Oracle et AMD n'ont pas encore divulgué la structure des coûts ou le calendrier d'achat, et les analystes spéculent sur la date de mise en service de la nouvelle capacité et les marges bénéficiaires qu'Oracle pourrait réaliser.
Au-delà des importantes mises à jour matérielles, Oracle a également lancé un lac de données autonome en intelligence artificielle (Autonomous AI Lakehouse), une plateforme de données et d'analyse de nouvelle génération visant à unifier la gestion des données à travers le cloud et à soutenir le format de table ouverte Apache Iceberg, facilitant ainsi l'interopérabilité des données. Cette plateforme repose sur la base de la base de données autonome d'Oracle, combinant la préparation des données pilotée par l'IA, l'accélération des requêtes SQL et les fonctionnalités de gouvernance intégrées. Selon InfoWorld, ce service s'intègre avec des répertoires externes tels que Databricks Unity, AWS Glue et Snowflake Polaris, illustrant la volonté d'Oracle de se tourner vers une interopérabilité neutre envers les fournisseurs.
Points clés :
1. 🚀 Oracle prévoit de déployer 50 000 accélérateurs AI d'AMD en 2026, afin de challenger le leadership de NVIDIA sur le marché.
2. 📊 La plateforme Autonomous AI Lakehouse nouvellement lancée soutient les normes ouvertes, favorise l'interopérabilité des données et renforce la gestion transversale du cloud.
3. 🤝 La coopération approfondie d'Oracle avec OpenAI va amplifier le développement des services cloud en intelligence artificielle.