Récemment, le géant technologique Google a discrètement lancé son dernier modèle d'IA phare, le Gemini 2.5 Pro, suscitant un énorme enthousiasme au sein de la communauté des développeurs.
Google le qualifie de « modèle le plus intelligent jamais créé ». Ce puissant modèle est désormais disponible en préversion publique via l'API Gemini sur Google AI Studio, et sera bientôt disponible sur Vertex AI. Cette initiative permet à davantage de développeurs d'expérimenter les capacités de pointe de l'IA, et sa stratégie de prix très compétitive a également suscité un vif intérêt dans le secteur.
Bien que Google n'ait pas détaillé toutes les fonctionnalités de Gemini 2.5 Pro dans son annonce, le fait qu'il soit qualifié de « modèle le plus intelligent jamais créé » suggère des performances exceptionnelles en matière de raisonnement. Le modèle promet des capacités impressionnantes pour comprendre des problèmes complexes, effectuer des raisonnements logiques et générer des réponses de haute qualité. Les développeurs et les utilisateurs, ayant déjà expérimenté une version préliminaire intégrée à Gemini Advanced, ont été profondément impressionnés par ses performances.
Une aubaine pour les développeurs : tarifs optimisés et efficacité accrue
Face à l'intérêt marqué des développeurs et à une adoption précoce enthousiaste, Google a rapidement réagi en annonçant une augmentation des limites de vitesse de Gemini 2.5 Pro et en proposant ce modèle à un prix bien inférieur à celui de nombreux concurrents. Actuellement, la version préversion publique de Gemini 2.5 Pro est proposée au prix de 1,24 $ par million de tokens d'entrée. Google avait précédemment indiqué que la version expérimentale resterait gratuite, mais avec des limites de vitesse plus basses.
Comparé à ses concurrents, le prix de Gemini 2.5 Pro est extrêmement attractif. Par exemple, le modèle comparable Claude 3.7 Sonnet d'Anthropic est proposé à 3 $ par million de tokens d'entrée et 15 $ par million de tokens de sortie. Le modèle de raisonnement o1 d'OpenAI est encore plus cher, à 15 $ par million de tokens d'entrée et 60 $ par million de tokens de sortie (7,5 $ pour la mise en cache des entrées).
Même le modèle o3-mini d'OpenAI, plus économique, est plus cher que Gemini 2.5 Pro en termes de tokens d'entrée et de sortie. Un tel prix compétitif explique les exclamations sur les réseaux sociaux : « Ça va chauffer ! »
Guerre des prix des modèles d'IA : Google lance une nouvelle tendance de réduction des coûts et d'augmentation de l'efficacité
L'arrivée à bas prix de Gemini 2.5 Pro exerce sans aucun doute une pression accrue sur les principaux développeurs de modèles d'IA tels qu'Anthropic et OpenAI. DeepSeek avait déjà fait sensation dans le monde des entreprises avec son modèle DeepSeek R1 à faible coût. Aujourd'hui, Google rejoint cette « guerre des prix » afin de permettre à davantage de développeurs d'utiliser des modèles d'IA puissants à moindre coût, stimulant ainsi une adoption plus large de l'IA.
Google indique que le lancement de Gemini 2.5 Pro en préversion publique vise à recueillir les commentaires des développeurs afin d'améliorer et d'optimiser le modèle. Cette initiative laisse présager une concurrence encore plus féroce dans le domaine de l'IA à l'avenir, et les développeurs seront sans aucun doute les principaux bénéficiaires de ces progrès technologiques et de cette concurrence tarifaire.