DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto basado en Mixture-of-Experts, con un rendimiento comparable a GPT4-Turbo, destacando en tareas específicas de código. Ha sido preentrenado con 6 billones de tokens adicionales, mejorando sus capacidades de codificación y razonamiento matemático, manteniendo un rendimiento similar en tareas de lenguaje general. En comparación con DeepSeek-Coder-33B, muestra mejoras significativas en tareas relacionadas con código, razonamiento y capacidades generales. Además, la cantidad de lenguajes de programación compatibles se ha ampliado de 86 a 338, y la longitud del contexto de 16K a 128K.