Qwen2.5-Coder-14B ist ein auf Code spezialisiertes großes Sprachmodell aus der Qwen-Serie. Es umfasst verschiedene Modellgrößen von 0,5 bis 32 Milliarden Parametern, um den Bedürfnissen unterschiedlicher Entwickler gerecht zu werden. Das Modell zeigt deutliche Verbesserungen in der Codegenerierung, Codeinferenz und Codekorrektur. Basierend auf dem leistungsstarken Qwen2.5 wurden die Trainings-Token auf 5,5 Billionen erweitert, darunter Quellcode, Textcode-Grounding und synthetische Daten. Qwen2.5-Coder-32B hat sich als derzeit fortschrittlichstes Open-Source-Code-LLM etabliert und seine Codierfähigkeiten entsprechen denen von GPT-4o. Darüber hinaus bietet es eine umfassendere Grundlage für reale Anwendungen wie Code-Agenten, indem es nicht nur die Codierfähigkeiten verbessert, sondern auch die Stärken in Mathematik und allgemeinen Fähigkeiten beibehält. Es unterstützt lange Kontexte mit bis zu 128K Tokens.