DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto basado en Mixture-of-Experts (MoE), con un rendimiento comparable a GPT4-Turbo, destacando en tareas específicas de código. Preentrenado con un corpus de alta calidad de 6 billones de tokens de múltiples fuentes, a partir de DeepSeek-Coder-V2-Base, mejora significativamente la capacidad de codificación y razonamiento matemático, manteniendo un alto rendimiento en tareas de lenguaje general. La compatibilidad con lenguajes de programación se ha ampliado de 86 a 338, y la longitud del contexto de 16K a 128K.