Le 20 mai 2025, lors de la conférence Google I/O pour les développeurs, Google DeepMind a officiellement lancé Gemini2.5Pro avec le mode Deep Think, un modèle expérimental d'inférence avancée qui établit un nouveau standard pour la gestion des tâches complexes par l'IA. Le mode Deep Think améliore les performances du Gemini2.5Pro dans des domaines comme les mathématiques, le codage et l'inférence multimodale grâce à une technologie d'inférence parallèle.

Technologie d'inférence parallèle, amélioration significative des performances pour les tâches complexes

Le mode Deep Think utilise une technologie d'inférence parallèle de pointe, permettant au modèle d'explorer plusieurs chemins hypothétiques avant de générer une réponse, ce qui améliore la précision et la profondeur des réponses. Selon Google, ce mode a obtenu de bons résultats lors des tests de l'Olympiade Mathématique des États-Unis (USAMO), a dominé les benchmarks de programmation concurrentielle LiveCodeBench et a atteint 84 % sur le test d'inférence multimodale MMU. Ces résultats montrent que le mode Deep Think est particulièrement adapté à la résolution de problèmes mathématiques et de codage nécessitant des étapes multiples, rivalisant voire surpassant les compétiteurs comme o1-pro d'OpenAI.

image.png

Contrôle modulaire et conception conviviale pour les développeurs

Le mode Deep Think introduit la fonctionnalité de **budget de réflexion (Thinking Budget)**, permettant aux développeurs de ajuster flexiblement la qualité de la réponse, le délai et le coût en modifiant le nombre de jetons utilisés pendant l'inférence. Cette fonctionnalité permet à Gemini2.5Pro de s'adapter à divers scénarios allant de la conception rapide à l'analyse approfondie. De plus, Google a ajouté la fonctionnalité de **résumé de réflexion (Thought Summaries)** dans l'API Gemini et Vertex AI pour afficher clairement le processus de raisonnement du modèle, facilitant ainsi le débogage et l'optimisation de l'expérience utilisateur.

Accessible uniquement aux testeurs de confiance, priorité à la sécurité

Actuellement, le mode Deep Think n'est accessible qu'à travers l'API Gemini pour les testeurs de confiance. Google souligne qu'il mènera des évaluations supplémentaires pour garantir la robustesse du modèle avant son déploiement généralisé. Les développeurs expriment une grande attente face aux capacités de raisonnement de ce mode, tout en notant qu'une validation supplémentaire sera nécessaire pour son utilisation pratique. Google prévoit d'étendre progressivement sa disponibilité via Google AI Studio et Vertex AI dans les semaines à venir, avec une mise à disposition plus large prévue début juin.

Lancement du mode Deep Think pour Gemini2.5Pro marque une percée majeure de Google dans le domaine de l'inférence IA. Sa technologie d'inférence parallèle et ses fonctionnalités modulaires offrent aux développeurs des outils plus efficaces. Comparé aux approches traditionnelles de chemin d'inférence unique, cette méthode innovante pourrait susciter un nouvel intérêt dans des domaines comme la recherche académique, le développement logiciel et l'analyse de données. AIbase continuera de suivre l'impact réel de ce mode et les retours utilisateurs, espérant son rôle dans l'avancement des frontières de la technologie IA.