Qwen2.5-Coder-14B est un grand modèle linguistique de la série Qwen spécialisé dans le code. Il couvre différentes tailles de modèles, de 0,5 à 32 milliards de paramètres, afin de répondre aux besoins de différents développeurs. Ce modèle présente des améliorations significatives en matière de génération de code, d'inférence de code et de correction de code. Basé sur le puissant Qwen2.5, l'extension des jetons d'entraînement atteint 5,5 billions, incluant du code source, du code textuel ancré et des données synthétiques. Qwen2.5-Coder-32B est devenu le LLM de code open source le plus avancé à ce jour, ses capacités de codage étant comparables à celles de GPT-4o. De plus, il fournit une base plus complète pour les applications du monde réel telles que les agents de code, améliorant non seulement les capacités de codage, mais également en préservant ses avantages en mathématiques et en capacités générales. Il prend en charge un contexte long allant jusqu'à 128 000 jetons.