Baidu a annoncé le lancement complet de son assistant de recherche AI, équipé d’un nouveau modèle ultra-rapide. Cette technologie développée en interne marque un saut qualitatif dans la vitesse de génération des résultats de recherche. Selon les dernières données et tests, par rapport à DeepSeek V3.1 précédent, le nouveau modèle ultra-rapide améliore la vitesse de génération des résultats de cinq fois tout en maintenant la même qualité, tout en réduisant le coût d’appel à seulement 70 %.
Le cœur de cette nouvelle technologie réside dans une optimisation globale du processus de raisonnement des grands modèles. Cette optimisation couvre la vitesse de génération, le coût d'appel et l'efficacité d'utilisation, garantissant aux utilisateurs d'obtenir les informations les plus précises en un temps record. Plus précisément, le temps de retour du premier token pour la réponse de l'assistant Baidu AI a été réduit de 39 %, tandis que la vitesse de production des réponses a augmenté de 500 %. Ces chiffres montrent que Baidu occupe une position de leader dans le domaine de l'efficacité de la recherche.