Le 8 avril 2025, Nvidia a lancé Llama3.1Nemotron Ultra253B, un modèle open source optimisé à partir de Llama-3.1-405B. Avec ses 253 milliards de paramètres, il surpasse les modèles Llama4Behemoth et Maverick de Meta, devenant ainsi un point central de l'IA.

Ce modèle a démontré d'excellentes performances lors de tests tels que GPQA-Diamond, AIME2024/25 et LiveCodeBench, atteignant un débit d'inférence quatre fois supérieur à celui de DeepSeek R1. Grâce à une optimisation de l'entraînement et des algorithmes, Nvidia prouve qu'une conception efficace permet à un modèle plus petit de rivaliser avec des modèles géants.

QQ20250409-092409.png

Llama3.1Nemotron Ultra253B est disponible sur HuggingFace avec des poids ouverts et sous une licence commerciale conviviale. Cette initiative de Nvidia facilite le travail des développeurs et encourage une adoption plus large de la technologie IA ainsi que le développement de son écosystème.

En défiant les modèles de plusieurs milliards de paramètres avec un nombre de paramètres plus réduit, ce modèle illustre le concept « moins c'est plus ». Il pourrait inciter l'industrie à reconsidérer la course aux paramètres et à explorer des voies plus durables pour l'IA.

Ses hautes performances et sa flexibilité le rendent adapté à la génération de code, à la recherche scientifique, etc. Avec une utilisation accrue par les développeurs, ce modèle pourrait engendrer des changements importants dès 2025.

Pour les développeurs, ce modèle offre une plateforme d'expérimentation performante et accessible. Pour les entreprises, sa licence commerciale et son efficacité se traduisent par des coûts de déploiement réduits et des scénarios d'application plus vastes. De la génération de code à la recherche scientifique en passant par le traitement du langage naturel, la polyvalence de ce modèle pourrait révolutionner plusieurs domaines.

Adresse : https://huggingface.co/nvidia/Llama-3_1-Nemotron-Ultra-253B-v1